State Space Models Naturally Produce Traveling Waves, Time Cells, and Scale to Abstract Cognitive Functions

📄 arXiv: 2507.13638v1 📥 PDF

作者: Sen Lu, Xiaoyu Zhang, Mingtao Hu, Eric Yeu-Jer Lee, Soohyeon Kim, Wei D. Lu

分类: q-bio.NC, cs.LG

发布日期: 2025-07-18

备注: Sen Lu and Xiaoyu Zhang contributed equally. Wei D. Lu is the corresponding author. 4 figures are included in 15 pages


💡 一句话要点

提出基于状态空间模型(SSM)的框架,统一神经元动力学与认知功能,解释时间细胞涌现。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 状态空间模型 时间细胞 神经动力学 强化学习 认知功能 时间学习 旋转动力学

📋 核心要点

  1. 现有神经科学缺乏连接微观神经回路与宏观认知功能的桥梁,难以解释学习行为的神经机制。
  2. 论文提出基于状态空间模型(SSM)的框架,模拟神经元动力学,并通过学习到的旋转动力学涌现认知功能。
  3. 实验表明,该模型能自发产生类似生物时间细胞的神经表征,并推广到抽象事件计数任务。

📝 摘要(中文)

现代神经科学的一个巨大挑战是如何弥合微观神经回路的详细映射与对认知功能的机制性理解之间的差距。尽管关于神经元连接和生物物理学的知识已经很丰富,但在这些元素如何结合以产生灵活的、学习到的行为方面仍然存在显著的差距。本文提出,基于状态空间模型(SSM)的框架可以弥合这一差距,SSM是一类新兴的深度学习架构。我们认为,SSM中控制元素的微分方程在概念上与神经元的生物物理动力学一致,而模型中的组合动力学导致了在实验神经科学中观察到的涌现行为。我们通过在时间辨别任务上使用强化学习(RL)训练S5模型(一种采用对角状态转移矩阵的特定SSM变体)来测试这个框架。我们证明了该模型自发地发展出与生物“时间细胞”惊人地相似的神经表征。我们揭示了这些细胞源于一个简单的生成原则:隐藏状态向量在复平面中的学习到的旋转动力学。这种单一机制统一了在众多实验中观察到的时间细胞、斜坡活动和振荡/行波的涌现。此外,我们表明,这种旋转动力学可以推广到超越间隔辨别任务的抽象事件计数任务,这些任务被认为是执行复杂认知任务的基础。我们的发现将SSM定位为一个引人注目的框架,它将单神经元动力学与认知现象联系起来,为大脑中的时间学习提供了一个统一且计算上易于处理的理论基础。

🔬 方法详解

问题定义:现有神经科学研究在连接微观神经回路的细节与宏观认知功能之间存在鸿沟。虽然对神经元连接和生物物理特性有深入了解,但缺乏一个统一的理论框架来解释这些微观元素如何组合产生灵活的学习行为,特别是时间学习相关的神经机制,例如时间细胞的涌现。

核心思路:论文的核心思路是利用状态空间模型(SSM)来模拟神经元动力学,并解释认知功能的涌现。SSM的微分方程与神经元的生物物理动力学具有概念上的一致性,而模型内部的组合动力学能够产生在实验神经科学中观察到的行为。通过学习隐藏状态向量的旋转动力学,模型能够自发地产生类似生物时间细胞的神经表征,从而实现时间学习。

技术框架:整体框架包括以下几个主要部分:首先,选择S5模型作为SSM的具体实现,S5模型采用对角状态转移矩阵。其次,在时间辨别任务上使用强化学习(RL)训练S5模型。训练过程中,模型学习隐藏状态向量的动态变化。最后,分析模型内部的神经表征,特别是时间细胞的涌现,并探究其生成机制。此外,验证模型在抽象事件计数任务上的泛化能力。

关键创新:论文最重要的创新点在于提出了一个统一的框架,将单神经元动力学与认知现象联系起来。通过学习隐藏状态向量在复平面上的旋转动力学,模型能够自发地产生类似生物时间细胞的神经表征,并解释了斜坡活动和振荡/行波等现象。这种单一机制为理解大脑中的时间学习提供了一个计算上易于处理的理论基础。

关键设计:论文的关键设计包括:1) 使用S5模型,该模型具有高效的计算性能和良好的表达能力;2) 使用强化学习训练模型,使其能够学习时间辨别任务;3) 分析隐藏状态向量的动态变化,特别是旋转动力学,以揭示时间细胞的生成机制;4) 设计抽象事件计数任务,以验证模型的泛化能力。具体的参数设置和损失函数等细节在论文中进行了详细描述(未知)。

📊 实验亮点

实验结果表明,经过强化学习训练的S5模型能够自发地发展出与生物“时间细胞”惊人地相似的神经表征。这些时间细胞源于隐藏状态向量在复平面中的学习到的旋转动力学。此外,该模型在抽象事件计数任务上表现出良好的泛化能力,表明其学习到的时间表征具有一定的抽象性和通用性。具体的性能指标和对比基线在论文中进行了详细描述(未知)。

🎯 应用场景

该研究成果可应用于开发新型的类脑计算模型,用于模拟和理解大脑中的时间学习机制。此外,该框架还可用于设计更智能的机器人和人工智能系统,使其能够更好地处理时间序列数据,并执行复杂的认知任务,例如时间预测、事件计数和序列学习。该研究为神经科学和人工智能的交叉研究提供了新的视角。

📄 摘要(原文)

A grand challenge in modern neuroscience is to bridge the gap between the detailed mapping of microscale neural circuits and a mechanistic understanding of cognitive functions. While extensive knowledge exists about neuronal connectivity and biophysics, a significant gap remains in how these elements combine to produce flexible, learned behaviors. Here, we propose that a framework based on State-Space Models (SSMs), an emerging class of deep learning architectures, can bridge this gap. We argue that the differential equations governing elements in an SSM are conceptually consistent with the biophysical dynamics of neurons, while the combined dynamics in the model lead to emergent behaviors observed in experimental neuroscience. We test this framework by training an S5 model--a specific SSM variant employing a diagonal state transition matrix--on temporal discrimination tasks with reinforcement learning (RL). We demonstrate that the model spontaneously develops neural representations that strikingly mimic biological 'time cells'. We reveal that these cells emerge from a simple generative principle: learned rotational dynamics of hidden state vectors in the complex plane. This single mechanism unifies the emergence of time cells, ramping activity, and oscillations/traveling waves observed in numerous experiments. Furthermore, we show that this rotational dynamics generalizes beyond interval discriminative tasks to abstract event-counting tasks that were considered foundational for performing complex cognitive tasks. Our findings position SSMs as a compelling framework that connects single-neuron dynamics to cognitive phenomena, offering a unifying and computationally tractable theoretical ground for temporal learning in the brain.