Super-additive Cooperation in Language Model Agents

📄 arXiv: 2508.15510v1 📥 PDF

作者: Filippo Tonini, Lukas Galke

分类: cs.AI

发布日期: 2025-08-21

备注: FAIEMA 2025

🔗 代码/项目: GITHUB


💡 一句话要点

提出基于语言模型智能体的超加性合作博弈框架,提升多智能体协作能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 语言模型 多智能体系统 合作博弈 囚徒困境 超加性合作 群体竞争 人工智能

📋 核心要点

  1. 现有研究缺乏对语言模型智能体在复杂社会互动中合作行为的深入探索,尤其是在群体竞争的背景下。
  2. 论文设计了一个基于囚徒困境的虚拟竞赛,模拟团队内部互动和团队间竞争,以研究超加性合作现象。
  3. 实验结果表明,团队内部互动和团队间竞争的结合能够显著提升语言模型智能体的整体和初始合作水平。

📝 摘要(中文)

本研究着眼于自主人工智能(AI)智能体的发展前景,探讨其合作行为的倾向。受到超加性合作理论的启发,该理论认为重复互动和群体间竞争的共同作用是人类合作倾向的原因。我们设计了一个虚拟竞赛,其中语言模型智能体被分组为团队,在囚徒困境游戏中相互对抗。通过模拟内部团队动态和外部竞争,我们发现这种结合显著提高了整体和初始的单次合作水平(在一次性互动中合作的倾向)。这项研究为大型语言模型在复杂的社会场景中制定策略和行动提供了一个新的框架,并提供了群体间竞争如何反直觉地导致更多合作行为的证据。这些见解对于设计能够有效协同工作并更好地与人类价值观对齐的未来多智能体AI系统至关重要。源代码可在https://github.com/pippot/Superadditive-cooperation-LLMs获取。

🔬 方法详解

问题定义:现有方法难以有效模拟和提升语言模型智能体在复杂社会环境下的合作行为,尤其缺乏对群体间竞争如何影响合作的深入研究。传统的强化学习方法可能难以捕捉到人类社会中复杂的合作动态,并且训练成本高昂。

核心思路:本研究的核心思路是借鉴超加性合作理论,该理论认为重复互动和群体间竞争是促进合作的关键因素。通过构建一个模拟团队内部互动和团队间竞争的虚拟环境,研究语言模型智能体在囚徒困境中的合作行为。这种设计旨在模拟真实世界中的社会互动,并探索如何利用群体间竞争来促进合作。

技术框架:该研究的技术框架主要包括以下几个部分:1)语言模型智能体:使用大型语言模型作为智能体的决策引擎。2)囚徒困境游戏:设计一个基于囚徒困境的虚拟竞赛环境,用于模拟智能体之间的互动。3)团队结构:将智能体分组为团队,模拟团队内部的互动和决策。4)竞赛机制:设计团队之间的竞赛机制,模拟群体间的竞争。5)评估指标:使用合作率作为评估智能体合作行为的指标。

关键创新:该研究的关键创新在于:1)将超加性合作理论应用于语言模型智能体,探索群体间竞争对合作行为的影响。2)设计了一个虚拟竞赛环境,能够有效模拟团队内部互动和团队间竞争。3)发现群体间竞争能够反直觉地促进语言模型智能体的合作行为。

关键设计:该研究的关键设计包括:1)使用特定的prompt来引导语言模型智能体进行决策,prompt的设计需要能够清晰地表达囚徒困境的规则和奖励机制。2)设计团队内部的互动机制,例如允许团队成员进行沟通和协商。3)设计团队之间的竞赛机制,例如根据团队的合作率进行排名和奖励。4)调整囚徒困境的奖励矩阵,以影响智能体的合作倾向。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,在模拟团队内部互动和团队间竞争的环境下,语言模型智能体的整体合作率和初始合作率均显著提升。具体而言,与没有团队竞争的基线相比,引入团队竞争后,合作率提升了XX%(具体数值未知)。这表明群体间竞争能够有效促进语言模型智能体的合作行为。

🎯 应用场景

该研究成果可应用于开发更智能、更协作的多智能体系统,例如在自动驾驶、智能制造、客户服务等领域。通过模拟真实的社会互动和群体竞争,可以训练出更适应复杂环境、更具有合作精神的AI智能体,从而更好地服务于人类社会。未来的研究可以进一步探索如何将该框架应用于更复杂的社会场景,并研究如何利用AI来促进人类社会的合作。

📄 摘要(原文)

With the prospect of autonomous artificial intelligence (AI) agents, studying their tendency for cooperative behavior becomes an increasingly relevant topic. This study is inspired by the super-additive cooperation theory, where the combined effects of repeated interactions and inter-group rivalry have been argued to be the cause for cooperative tendencies found in humans. We devised a virtual tournament where language model agents, grouped into teams, face each other in a Prisoner's Dilemma game. By simulating both internal team dynamics and external competition, we discovered that this blend substantially boosts both overall and initial, one-shot cooperation levels (the tendency to cooperate in one-off interactions). This research provides a novel framework for large language models to strategize and act in complex social scenarios and offers evidence for how intergroup competition can, counter-intuitively, result in more cooperative behavior. These insights are crucial for designing future multi-agent AI systems that can effectively work together and better align with human values. Source code is available at https://github.com/pippot/Superadditive-cooperation-LLMs.