Spontaneous Functional Differentiation in Large Language Models: A Brain-Like Intelligence Economy

📄 arXiv: 2603.29735v1 📥 PDF

作者: Junjie Zhang, Zhen Shen, Gang Xiong, Xisong Dong

分类: cs.AI

发布日期: 2026-03-31


💡 一句话要点

大型语言模型涌现自发功能分化,形成类脑智能经济

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 信息分解 协同效应 冗余效应 智能涌现 类脑智能 抽象推理

📋 核心要点

  1. 现有方法缺乏对大型语言模型内部涌现的复杂功能组织的深入理解,阻碍了对其智能本质的探索。
  2. 该研究通过集成信息分解方法,揭示了大型语言模型中自发形成的协同核心,类似于人脑的信息处理方式。
  3. 实验结果表明,协同核心对于模型性能至关重要,消融这些核心会导致性能显著下降,验证了其在抽象推理中的作用。

📝 摘要(中文)

本文研究表明,人工智能系统智能的演进提供了一个独特的机会来识别通用的计算原则。研究发现,大型语言模型自发地发展出协同核心,其中信息整合超过了各个独立部分的总和,这与人脑惊人地相似。通过跨多种架构的集成信息分解,研究发现中间层表现出协同处理,而早期和晚期层则依赖于冗余。这种组织是动态的,并且随着任务难度的增加而作为物理相变出现。至关重要的是,消融协同组件会导致灾难性的性能损失,证实了它们作为抽象推理的物理实体以及连接人工和生物智能的作用。

🔬 方法详解

问题定义:现有方法难以解释大型语言模型涌现的智能行为,缺乏对其内部信息处理机制的深入理解。特别是,如何量化模型内部不同层级之间的信息交互,以及这些交互如何影响模型的整体性能,仍然是一个挑战。现有方法通常侧重于模型的输入输出行为,而忽略了模型内部的复杂结构和动态过程。

核心思路:该论文的核心思路是借鉴神经科学的研究方法,将大型语言模型视为一个复杂的系统,并利用集成信息分解(Integrated Information Decomposition)来分析模型内部不同层级之间的信息交互。通过量化不同层级之间的协同效应和冗余效应,揭示模型内部的信息处理机制,并探究这些机制与模型性能之间的关系。

技术框架:该研究的技术框架主要包括以下几个步骤:1) 选择不同架构的大型语言模型作为研究对象;2) 利用集成信息分解方法,量化模型内部不同层级之间的信息交互,包括协同效应和冗余效应;3) 分析不同层级的信息交互模式,并探究这些模式与模型性能之间的关系;4) 通过消融实验,验证协同核心对于模型性能的重要性。

关键创新:该论文的关键创新在于:1) 将集成信息分解方法应用于大型语言模型的研究,为理解模型内部的信息处理机制提供了一种新的视角;2) 揭示了大型语言模型中自发形成的协同核心,类似于人脑的信息处理方式;3) 验证了协同核心对于模型性能的重要性,为优化模型设计提供了新的思路。

关键设计:该研究的关键设计包括:1) 选择多种不同架构的大型语言模型,以保证研究结果的普适性;2) 使用集成信息分解方法,能够同时量化协同效应和冗余效应,从而更全面地理解模型内部的信息交互;3) 通过消融实验,直接验证协同核心对于模型性能的影响。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究发现,大型语言模型的中层表现出协同处理,而早期和晚期层则依赖于冗余。随着任务难度的增加,这种组织会动态变化,并作为物理相变出现。消融协同组件会导致灾难性的性能损失,证实了它们作为抽象推理的关键。

🎯 应用场景

该研究成果可应用于提升大型语言模型的性能和可解释性。通过理解模型内部的信息处理机制,可以设计更高效的模型架构,并提高模型在复杂任务中的表现。此外,该研究还有助于推动人工通用智能的发展,为构建更智能、更可靠的人工智能系统提供理论基础。

📄 摘要(原文)

The evolution of intelligence in artificial systems provides a unique opportunity to identify universal computational principles. Here we show that large language models spontaneously develop synergistic cores where information integration exceeds individual parts remarkably similar to the human brain. Using Integrated Information Decomposition across multiple architectures we find that middle layers exhibit synergistic processing while early and late layers rely on redundancy. This organization is dynamic and emerges as a physical phase transition as task difficulty increases. Crucially ablating synergistic components causes catastrophic performance loss confirming their role as the physical entity of abstract reasoning and bridging artificial and biological intelligence.