EMBER: Autonomous Cognitive Behaviour from Learned Spiking Neural Network Dynamics in a Hybrid LLM Architecture

📄 arXiv: 2604.12167v1 📥 PDF

作者: William Savage

分类: cs.AI, cs.NE

发布日期: 2026-04-14

备注: Preprint. 9 pages, 2 figures, 3 tables. NeurIPS 2026 format


💡 一句话要点

EMBER:混合LLM架构中基于学习的脉冲神经网络动态的自主认知行为

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 脉冲神经网络 大型语言模型 认知架构 自主学习 尖峰时间依赖可塑性

📋 核心要点

  1. 现有方法通常使用检索工具增强LLM,但EMBER架构将LLM置于生物学基础的联想基质中,作为可替换的推理引擎。
  2. EMBER利用脉冲神经网络(SNN)的STDP横向传播来触发和塑造LLM的行为,无需外部提示,实现自主行动。
  3. 实验表明,该系统在少量对话后即可自主发起行动,并在不同嵌入维度上保持较高的区分保留率(82.2%)。

📝 摘要(中文)

本文提出了一种混合认知架构EMBER(Experience-Modulated Biologically-inspired Emergent Reasoning),它重新组织了大型语言模型(LLM)和记忆之间的关系:不是用检索工具增强LLM,而是将LLM作为一个可替换的推理引擎放置在一个持久的、生物学基础的联想基质中。该架构的核心是一个包含22万个神经元的脉冲神经网络(SNN),具有尖峰时间依赖可塑性(STDP)、四层分层组织(感觉/概念/类别/元模式)、抑制性E/I平衡和奖励调节学习。文本嵌入通过一种新颖的z-score标准化top-k群体编码被编码到SNN中,该编码在构造上与维度无关,在不同的嵌入维度上实现了82.2%的区分保留率。我们展示了空闲操作期间的STDP横向传播可以触发和塑造LLM的行为,而无需外部提示或脚本触发:SNN决定何时行动以及浮现哪些关联,而LLM选择行动类型并生成内容。在一个实例中,该系统在学习到的人-主题关联在8小时的空闲期间横向激发后,自主地与用户建立了联系。从零学习权重的干净启动开始,第一次SNN触发的行动仅在7次对话交换(14条消息)后发生。

🔬 方法详解

问题定义:现有方法依赖于外部提示或脚本来触发LLM的行动,缺乏自主性和生物学合理性。此外,如何有效地将文本嵌入编码到脉冲神经网络中,并保持不同维度下的信息区分度,也是一个挑战。

核心思路:EMBER的核心思路是将LLM作为SNN的推理引擎,SNN负责决定何时行动以及浮现哪些关联,而LLM负责选择行动类型并生成内容。SNN的STDP横向传播模拟了大脑中的联想学习过程,使得系统能够自主地学习和触发行动。

技术框架:EMBER架构包含一个22万神经元的SNN和一个LLM。SNN具有四层分层组织(感觉/概念/类别/元模式)、抑制性E/I平衡和奖励调节学习。文本嵌入首先通过z-score标准化top-k群体编码被编码到SNN中,然后SNN的STDP横向传播会触发LLM的行动,LLM生成最终内容。

关键创新:该论文的关键创新在于:1) 提出了一种混合认知架构,将LLM置于SNN的联想基质中,实现了自主认知行为。2) 提出了一种新颖的z-score标准化top-k群体编码方法,能够有效地将文本嵌入编码到SNN中,并保持不同维度下的信息区分度。

关键设计:SNN包含22万个神经元,采用尖峰时间依赖可塑性(STDP)进行学习。SNN的四层结构模拟了大脑中的信息处理层次。z-score标准化top-k群体编码通过选择top-k个激活神经元,并对其激活值进行z-score标准化,实现了与维度无关的编码。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

该系统在8小时的空闲期间,通过学习到的人-主题关联,自主地与用户建立了联系。从零学习权重的干净启动开始,第一次SNN触发的行动仅在7次对话交换(14条消息)后发生。此外,该系统提出的z-score标准化top-k群体编码在不同的嵌入维度上实现了82.2%的区分保留率。

🎯 应用场景

该研究成果可应用于开发更具自主性和适应性的智能体,例如:自主客服机器人、个性化推荐系统、智能家居控制系统等。通过模拟生物大脑的学习机制,可以使这些系统在无需人工干预的情况下,自主地学习和适应新的环境和任务,从而提高其效率和用户体验。

📄 摘要(原文)

We present (Experience-Modulated Biologically-inspired Emergent Reasoning), a hybrid cognitive architecture that reorganises the relationship between large language models (LLMs) and memory: rather than augmenting an LLM with retrieval tools, we place the LLM as a replaceable reasoning engine within a persistent, biologically-grounded associative substrate. The architecture centres on a 220,000-neuron spiking neural network (SNN) with spike-timing-dependent plasticity (STDP), four-layer hierarchical organisation (sensory/concept/category/meta-pattern), inhibitory E/I balance, and reward-modulated learning. Text embeddings are encoded into the SNN via a novel z-score standardised top-k population code that is dimension-independent by construction, achieving 82.2\% discrimination retention across embedding dimensionalities. We show that STDP lateral propagation during idle operation can trigger and shape LLM actions without external prompting or scripted triggers: the SNN determines when to act and what associations to surface, while the LLM selects the action type and generates content. In one instance, the system autonomously initiated contact with a user after learned person-topic associations fired laterally during an 8-hour idle period. From a clean start with zero learned weights, the first SNN-triggered action occurred after only 7 conversational exchanges (14 messages).