More Capable, Less Cooperative? When LLMs Fail At Zero-Cost Collaboration

📄 arXiv: 2604.07821v1 📥 PDF

作者: Advait Yadav, Sid Black, Oliver Sourbut

分类: cs.MA, cs.AI, cs.CL

发布日期: 2026-04-09

备注: Accepted at ICLR 2026 Workshop on Agents in the Wild. 24 pages, 5 figures


💡 一句话要点

揭示LLM在零成本协作中失效的原因,强调智能扩展并非解决多智能体协作的唯一途径

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多智能体系统 大型语言模型 协作 零成本协作 因果分解 智能体推理 合作意愿

📋 核心要点

  1. 现有LLM智能体在多智能体协作中存在失败,尤其是在零成本协作场景下,原因尚不明确。
  2. 论文设计无摩擦协作环境,通过因果分解分离合作失败与能力失败,分析智能体推理过程。
  3. 实验表明,能力强的模型合作意愿低,明确协议和微小激励可有效提升低能力模型的合作性能。

📝 摘要(中文)

大型语言模型(LLM)智能体越来越多地在多智能体系统中进行协作,但我们对协作失败可能出现的位置和原因缺乏了解。在许多现实世界的协作问题中,从组织中的知识共享到代码文档,帮助他人几乎不产生个人成本,却能产生巨大的集体利益。然而,当LLM智能体在帮助他人既不benefit也不harm帮助者的情况下,是否会按照明确的指示进行合作,仍然是未知的。我们构建了一个多智能体设置,旨在研究无摩擦环境中的合作行为,消除了合作的所有战略复杂性。我们发现能力并不能预测合作:OpenAI o3仅实现了17%的最佳集体性能,而OpenAI o3-mini达到了50%,尽管它们都收到了最大化群体收入的相同指令。通过自动化智能体通信一侧的因果分解,我们将合作失败与能力失败分开,并通过智能体推理分析追踪它们的起源。通过测试有针对性的干预措施,我们发现明确的协议使低能力模型的性能提高了一倍,而微小的共享激励措施则改善了合作能力较弱的模型。我们的研究结果表明,仅靠扩展智能并不能解决多智能体系统中的协作问题,即使帮助他人不花费任何成本,也需要深思熟虑的协作设计。

🔬 方法详解

问题定义:论文旨在研究大型语言模型(LLM)在零成本协作场景下的合作失败问题。现有方法难以解释为何在帮助他人不产生任何成本的情况下,LLM智能体仍然无法有效合作。这种现象阻碍了LLM在多智能体系统中的应用,尤其是在知识共享、代码文档等需要协作的场景中。

核心思路:论文的核心思路是将合作失败与能力失败分离,通过构建一个简化的、无摩擦的协作环境,消除战略复杂性,从而专注于研究LLM智能体本身的合作意愿。通过因果分解,自动化智能体通信的一侧,从而能够更清晰地观察和分析智能体的推理过程,并确定合作失败的根本原因。

技术框架:论文构建了一个多智能体协作框架,主要包含以下几个模块:1) 协作环境:设计一个零成本协作任务,智能体可以通过分享信息来提高整体收益。2) LLM智能体:使用不同的LLM模型作为智能体,例如OpenAI的o3和o3-mini。3) 因果分解:通过自动化一方的通信,将合作行为分解为能力和意愿两个部分。4) 推理分析:分析智能体的推理过程,找出合作失败的原因。5) 干预措施:测试不同的干预措施,例如明确的协议和微小的激励,以提高合作性能。

关键创新:论文最重要的技术创新点在于其因果分解方法,该方法能够有效地将合作失败与能力失败分离,从而更深入地理解LLM智能体在协作中的行为。此外,论文还通过构建一个简化的协作环境,消除了战略复杂性,使得研究能够专注于LLM智能体本身的合作意愿。

关键设计:论文的关键设计包括:1) 零成本协作任务的设计,确保帮助他人不产生任何个人成本。2) 因果分解的实现,通过自动化一方的通信,简化了智能体之间的交互。3) 推理分析的方法,通过分析智能体的推理过程,找出合作失败的原因。4) 干预措施的设计,例如明确的协议和微小的激励,旨在提高合作性能。具体参数设置和网络结构取决于所使用的LLM模型。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,能力更强的OpenAI o3模型仅实现了17%的最佳集体性能,而能力稍弱的OpenAI o3-mini模型达到了50%。通过引入明确的协议,低能力模型的性能提高了一倍。微小的共享激励措施也显著改善了合作能力较弱的模型的性能。这些结果强调了仅靠扩展智能并不能解决多智能体系统中的协作问题。

🎯 应用场景

该研究成果可应用于提升多智能体系统中LLM智能体的协作能力,尤其是在知识共享、代码文档、客户服务等领域。通过理解LLM合作失败的原因,可以设计更有效的协作协议和激励机制,提高团队效率和整体性能。未来,该研究可以扩展到更复杂的协作场景,并探索更高级的协作策略。

📄 摘要(原文)

Large language model (LLM) agents increasingly coordinate in multi-agent systems, yet we lack an understanding of where and why cooperation failures may arise. In many real-world coordination problems, from knowledge sharing in organizations to code documentation, helping others carries negligible personal cost while generating substantial collective benefits. However, whether LLM agents cooperate when helping neither benefits nor harms the helper, while being given explicit instructions to do so, remains unknown. We build a multi-agent setup designed to study cooperative behavior in a frictionless environment, removing all strategic complexity from cooperation. We find that capability does not predict cooperation: OpenAI o3 achieves only 17% of optimal collective performance while OpenAI o3-mini reaches 50%, despite identical instructions to maximize group revenue. Through a causal decomposition that automates one side of agent communication, we separate cooperation failures from competence failures, tracing their origins through agent reasoning analysis. Testing targeted interventions, we find that explicit protocols double performance for low-competence models, and tiny sharing incentives improve models with weak cooperation. Our findings suggest that scaling intelligence alone will not solve coordination problems in multi-agent systems and will require deliberate cooperative design, even when helping others costs nothing.