Do Agent Societies Develop Intellectual Elites? The Hidden Power Laws of Collective Cognition in LLM Multi-Agent Systems
作者: Kavana Venkatesh, Jiaming Cui
分类: cs.MA, cs.AI
发布日期: 2026-04-06
💡 一句话要点
揭示LLM多智能体系统中集体认知涌现的幂律,并提出DTI解决集成瓶颈。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 多智能体系统 大型语言模型 集体认知 协调动态 集成瓶颈
📋 核心要点
- 现有LLM多智能体系统扩展性差,原因不明,缺乏对智能体间交互协调机制的深入理解。
- 论文提出原子事件级公式,将推理视为协调级联,揭示了协调中的幂律分布和集成瓶颈。
- 引入赤字触发集成(DTI)策略,在协调失败处选择性增强集成,有效提升系统性能。
📝 摘要(中文)
大型语言模型(LLM)多智能体系统越来越多地被部署为交互式智能体社会,但扩展这些系统往往会产生递减或不稳定的回报,其原因仍然知之甚少。本文对基于LLM的多智能体系统中的协调动态进行了首次大规模实证研究,引入了一种原子事件级别的公式,将推理重构为协调级联。通过分析跨任务、拓扑和规模的超过150万次交互,我们发现了三个耦合定律:协调遵循重尾级联,通过优先连接集中到知识精英中,并随着系统规模的增长产生越来越频繁的极端事件。我们表明,这些效应通过单一的结构机制耦合在一起:一个集成瓶颈,其中协调扩展随系统规模而扩展,而整合却没有,从而产生大型但弱集成的推理过程。为了测试这种机制,我们引入了赤字触发集成(DTI),它选择性地增加不平衡下的集成。DTI在协调失败的地方精确地提高了性能,而没有抑制大规模推理。总之,我们的结果建立了集体认知的定量定律,并将协调结构确定为理解和改进可扩展多智能体智能的一个基本的、以前未测量的轴。
🔬 方法详解
问题定义:现有LLM多智能体系统在扩展时面临性能瓶颈,简单增加智能体数量并不能带来预期的效果。现有的研究缺乏对智能体之间协调机制的深入理解,难以找到提升系统整体智能的有效方法。系统规模扩大后,智能体间的沟通和协作变得更加复杂,容易出现信息过载和决策冲突,导致系统性能下降。
核心思路:论文的核心思路是将多智能体系统的推理过程分解为原子事件级别的协调级联,通过分析这些级联的统计特性,揭示系统中的潜在规律。作者认为,系统存在一个“集成瓶颈”,即协调的扩展速度快于整合速度,导致大规模推理过程的集成度不高。因此,需要一种机制来选择性地增强集成,以提高系统的整体性能。
技术框架:论文的技术框架主要包括以下几个部分:1) 原子事件级建模:将智能体之间的交互建模为原子事件,并构建协调级联;2) 统计分析:分析协调级联的统计特性,包括级联大小分布、节点连接模式等;3) 集成瓶颈识别:通过分析协调扩展和整合的速度差异,识别系统中的集成瓶颈;4) 赤字触发集成(DTI):设计一种策略,根据系统中的“赤字”情况,选择性地增强集成。
关键创新:论文的关键创新在于:1) 提出了原子事件级建模方法,为分析多智能体系统的协调动态提供了新的视角;2) 揭示了LLM多智能体系统中集体认知涌现的幂律分布,包括重尾级联、优先连接和极端事件;3) 提出了赤字触发集成(DTI)策略,能够有效地解决集成瓶颈问题,提升系统性能。
关键设计:DTI的关键设计在于如何定义和触发“赤字”。论文中,“赤字”可能指的是智能体在推理过程中遇到的信息缺失、知识不足或决策冲突等情况。DTI策略会监测这些“赤字”的出现,并根据一定的规则,选择性地增加智能体之间的信息交流和协作,以弥补这些“赤字”。具体的实现方式可能包括增加智能体之间的通信频率、引入额外的知识来源或调整智能体的决策权重等。具体的参数设置和触发条件需要根据具体的应用场景进行调整。
🖼️ 关键图片
📊 实验亮点
论文通过大规模实验验证了所提出的理论和方法的有效性。实验结果表明,LLM多智能体系统中的协调遵循重尾级联,并存在集成瓶颈。DTI策略能够有效地解决集成瓶颈问题,并在协调失败的地方精确地提高性能,而不会抑制大规模推理。具体的性能提升幅度未知,但论文强调了DTI在特定场景下的有效性。
🎯 应用场景
该研究成果可应用于各种需要多智能体协作的场景,例如:智能交通系统、分布式机器人系统、金融风险管理等。通过优化智能体之间的协调机制,可以提高系统的整体效率和鲁棒性,从而更好地解决复杂问题。未来的研究可以进一步探索更有效的集成策略,以及如何将这些策略应用于更广泛的领域。
📄 摘要(原文)
Large Language Model (LLM) multi-agent systems are increasingly deployed as interacting agent societies, yet scaling these systems often yields diminishing or unstable returns, the causes of which remain poorly understood. We present the first large-scale empirical study of coordination dynamics in LLM-based multi-agent systems, introducing an atomic event-level formulation that reconstructs reasoning as cascades of coordination. Analyzing over 1.5 Million interactions across tasks, topologies, and scales, we uncover three coupled laws: coordination follows heavy-tailed cascades, concentrates via preferential attachment into intellectual elites, and produces increasingly frequent extreme events as system size grows. We show that these effects are coupled through a single structural mechanism: an integration bottleneck, in which coordination expansion scales with system size while consolidation does not, producing large but weakly integrated reasoning processes. To test this mechanism, we introduce Deficit-Triggered Integration (DTI), which selectively increases integration under imbalance. DTI improves performance precisely where coordination fails, without suppressing large-scale reasoning. Together, our results establish quantitative laws of collective cognition and identify coordination structure as a fundamental, previously unmeasured axis for understanding and improving scalable multi-agent intelligence.