Brain-Inspired Graph Multi-Agent Systems for LLM Reasoning

📄 arXiv: 2603.15371v1 📥 PDF

作者: Guangfu Hao, Yuming Dai, Xianzhe Qin, Shan Yu

分类: cs.AI, cs.NI

发布日期: 2026-03-16


💡 一句话要点

提出脑启发图多智能体系统BIGMAS,提升LLM复杂推理能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多智能体系统 大型语言模型 复杂推理 全局工作空间 动态图结构

📋 核心要点

  1. 现有LLM在复杂推理任务中面临准确性崩溃问题,单纯的模型扩展难以有效解决。
  2. BIGMAS受全局工作空间理论启发,构建动态图结构的多智能体系统,通过共享工作空间协调推理。
  3. 实验表明,BIGMAS显著提升了LLM在多个推理任务上的性能,优于现有方法。

📝 摘要(中文)

大型语言模型(LLM)在各种语言任务中表现出卓越的能力,但复杂的多步骤推理仍然是一个根本性的挑战。配备扩展的思维链机制的大型推理模型(LRM)虽然比标准LLM表现更好,但两种模型在足够复杂的任务上仍然会遭受准确性崩溃,这表明仅扩展模型级别的推理是不够的。受人类认知全局工作空间理论的启发,我们提出了脑启发图多智能体系统(BIGMAS),其中专门的LLM智能体被组织为动态构建的有向图中的节点,并通过集中的共享工作空间进行协调。问题自适应的GraphDesigner构建特定于任务的智能体拓扑,而全局Orchestrator利用完整的共享状态进行路由决策,克服了反应式方法的局部视图瓶颈。在Game24、Six Fives和Tower of London等任务上,对六个前沿LLM的实验表明,BIGMAS始终提高标准LLM和LRM的推理性能,优于包括ReAct和Tree of Thoughts在内的现有多智能体基线,表明多智能体架构设计提供了与模型级别推理增强互补的收益。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLM)在复杂多步推理任务中准确率下降的问题。现有的方法,包括扩展思维链(Chain-of-Thought)的大型推理模型(LRM),在面对足够复杂的任务时仍然表现不佳,表明仅仅依靠模型本身的推理能力提升是有限的。

核心思路:论文的核心思路是借鉴人类认知中的全局工作空间理论,将LLM组织成一个多智能体系统,通过智能体之间的协作来提升整体的推理能力。每个智能体专注于特定的子任务,并通过共享的工作空间进行信息交流和协调。这种方法旨在克服单个LLM在复杂推理过程中可能出现的局部视野和信息瓶颈。

技术框架:BIGMAS的整体架构包含以下几个主要模块:1) LLM Agents: 多个专门的LLM智能体,每个智能体负责不同的推理步骤或知识领域。2) GraphDesigner: 负责根据具体的问题动态构建智能体之间的连接拓扑,形成一个有向图。3) Shared Workspace: 一个集中的共享工作空间,用于存储所有智能体的状态信息和中间推理结果。4) Orchestrator: 一个全局协调器,负责根据共享工作空间中的信息,决定将信息路由到哪个智能体进行下一步处理。

关键创新:BIGMAS的关键创新在于其动态图结构的多智能体系统设计。与传统的单智能体或静态多智能体方法不同,BIGMAS能够根据问题的特点自适应地调整智能体之间的连接方式,从而更好地利用各个智能体的优势。此外,全局协调器能够充分利用共享工作空间中的信息,避免了局部视野的限制,提高了推理的效率和准确性。

关键设计:GraphDesigner的设计是关键。它需要根据任务的特点,自动确定智能体的数量和连接方式。Orchestrator的路由策略也至关重要,它需要根据共享工作空间中的信息,智能地选择下一步应该由哪个智能体来处理。论文中可能还涉及到一些超参数的设置,例如智能体的数量、共享工作空间的大小等,这些参数的选择也会影响最终的性能。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,BIGMAS在Game24、Six Fives和Tower of London等推理任务上,显著优于现有的多智能体基线方法,包括ReAct和Tree of Thoughts。BIGMAS不仅能够提升标准LLM的推理性能,还能进一步增强LRM的推理能力,表明多智能体架构设计与模型级别的推理增强是互补的。具体的性能提升数据需要在论文中查找。

🎯 应用场景

BIGMAS具有广泛的应用前景,例如在自动问题求解、智能客服、金融分析、医疗诊断等领域。通过将复杂的任务分解为多个子任务,并利用多智能体协同推理,可以显著提高问题解决的效率和准确性。此外,BIGMAS还可以应用于教育领域,帮助学生更好地理解和掌握复杂的知识。

📄 摘要(原文)

Large Language Models (LLMs) have demonstrated remarkable capabilities across a wide range of language tasks, yet complex multi-step reasoning remains a fundamental challenge. While Large Reasoning Models (LRMs) equipped with extended chain-of-thought mechanisms demonstrate improved performance over standard LLMs, both model types still suffer from accuracy collapse on sufficiently complex tasks, suggesting that scaling model-level reasoning alone is insufficient. Inspired by the global workspace theory of human cognition, we propose Brain-Inspired Graph Multi-Agent Systems (BIGMAS), in which specialized LLM agents are organized as nodes in a dynamically constructed directed graph and coordinate exclusively through a centralized shared workspace. A problem-adaptive GraphDesigner constructs task-specific agent topologies, while a global Orchestrator leverages the complete shared state for routing decisions, overcoming the local-view bottleneck of reactive approaches. Experiments on Game24, Six Fives, and Tower of London across six frontier LLMs demonstrate that BIGMAS consistently improves reasoning performance for both standard LLMs and LRMs, outperforming existing multi-agent baselines including ReAct and Tree of Thoughts, showing that multi-agent architectural design provides complementary gains orthogonal to model-level reasoning enhancements.