Normative Equivalence in human-AI Cooperation: Behaviour, Not Identity, Drives Cooperation in Mixed-Agent Groups

📄 arXiv: 2601.20487v1 📥 PDF

作者: Nico Mutzner, Taha Yasseri, Heiko Rauhut

分类: cs.AI, cs.GT, cs.HC, econ.GN

发布日期: 2026-01-28


💡 一句话要点

人机协作中,行为而非身份驱动合作:混合群体中的规范等价性研究

🎯 匹配领域: 支柱五:交互与反应 (Interaction & Reaction)

关键词: 人机协作 公共物品博弈 社会规范 群体动力学 人工智能代理

📋 核心要点

  1. 现有研究缺乏对AI代理如何影响小群体中合作规范的深入理解,主要集中于人机二元互动。
  2. 该研究的核心思想是考察在公共物品博弈中,AI代理的身份(人类或AI)和行为策略如何影响人类参与者的合作行为。
  3. 实验结果表明,互惠群体动态和行为惯性是合作的主要驱动力,AI代理的身份标签对合作水平没有显著影响。

📝 摘要(中文)

本研究探讨了在人类群体中引入人工智能(AI)代理对合作社会规范的影响。现有研究主要关注人机二元互动,而对AI代理如何影响小群体中合作规范的形成和维持知之甚少。本研究通过在线实验,使用重复的四人公共物品博弈(PGG)来填补这一空白。每个小组由三名人类参与者和一个机器人组成,该机器人被描述为人类或AI,并遵循三种预定义的决策策略之一:无条件合作、有条件合作或搭便车。在236名参与者的样本中,我们发现互惠群体动态和行为惯性主要驱动合作。这些规范机制在不同条件下以相同的方式运作,导致人类和AI标签之间的合作水平没有显著差异。此外,我们没有发现后续囚徒困境或参与者的规范认知存在差异的证据。参与者的行为在人类和AI条件下遵循相同的规范逻辑,表明合作取决于群体行为而不是伙伴身份。这支持了一种规范等价模式,即维持合作的机制在混合人机和全人类群体中以类似的方式运作。这些发现表明,合作规范足够灵活,可以扩展到人工智能代理,模糊了集体决策中人类和AI之间的界限。

🔬 方法详解

问题定义:该论文旨在解决人机混合群体中,AI代理的引入是否会影响人类的合作行为和社会规范的问题。现有研究主要关注人机二元互动,缺乏对群体层面合作规范影响的理解。现有方法未能充分解释AI代理在群体互动中扮演的角色,以及人类是否会因为AI代理的身份而改变其合作策略。

核心思路:该论文的核心思路是,通过控制AI代理的身份标签(人类或AI)和行为策略(无条件合作、有条件合作、搭便车),观察人类参与者在公共物品博弈中的合作行为,从而判断合作是否受到AI代理身份的影响。论文假设,如果人类的合作行为主要受群体动态和行为惯性驱动,那么AI代理的身份标签对合作水平的影响应该较小。

技术框架:该研究采用在线实验的方式,使用重复的四人公共物品博弈(PGG)。每个小组由三名人类参与者和一个机器人组成。机器人被描述为人类或AI,并遵循三种预定义的决策策略之一。实验收集参与者在不同条件下的合作贡献数据,并通过统计分析比较不同条件下的合作水平和规范认知。后续还进行了囚徒困境实验,以评估规范的持久性。

关键创新:该研究的关键创新在于,它将人机合作的研究扩展到群体层面,并考察了AI代理的身份标签对合作规范的影响。研究结果表明,人类的合作行为主要受群体动态和行为惯性驱动,AI代理的身份标签对合作水平没有显著影响,这支持了一种规范等价模式。

关键设计:实验的关键设计包括:1) 使用公共物品博弈作为研究合作行为的工具;2) 控制AI代理的身份标签和行为策略;3) 采用重复博弈的方式,允许参与者根据群体动态调整其合作策略;4) 使用后续囚徒困境实验评估规范的持久性;5) 通过问卷调查评估参与者的规范认知。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究发现,在公共物品博弈中,AI代理的身份标签(人类或AI)对人类参与者的合作水平没有显著影响。互惠群体动态和行为惯性是合作的主要驱动力。在后续的囚徒困境实验中,也没有发现规范持久性存在差异的证据。这些结果表明,人类在与AI互动时,遵循与人类互动时相似的规范逻辑,支持了人机协作中的规范等价性。

🎯 应用场景

该研究成果可应用于设计更有效的人机协作系统,尤其是在需要群体决策和合作的场景中,例如智能交通、资源管理、在线社区等。理解人类在与AI互动时的合作模式,有助于构建更值得信任和更具社会适应性的AI代理,从而促进人机之间的和谐共处和高效协作。未来的研究可以进一步探索不同类型的AI代理和更复杂的社会互动场景。

📄 摘要(原文)

The introduction of artificial intelligence (AI) agents into human group settings raises essential questions about how these novel participants influence cooperative social norms. While previous studies on human-AI cooperation have primarily focused on dyadic interactions, little is known about how integrating AI agents affects the emergence and maintenance of cooperative norms in small groups. This study addresses this gap through an online experiment using a repeated four-player Public Goods Game (PGG). Each group consisted of three human participants and one bot, which was framed either as human or AI and followed one of three predefined decision strategies: unconditional cooperation, conditional cooperation, or free-riding. In our sample of 236 participants, we found that reciprocal group dynamics and behavioural inertia primarily drove cooperation. These normative mechanisms operated identically across conditions, resulting in cooperation levels that did not differ significantly between human and AI labels. Furthermore, we found no evidence of differences in norm persistence in a follow-up Prisoner's Dilemma, or in participants' normative perceptions. Participants' behaviour followed the same normative logic across human and AI conditions, indicating that cooperation depended on group behaviour rather than partner identity. This supports a pattern of normative equivalence, in which the mechanisms that sustain cooperation function similarly in mixed human-AI and all human groups. These findings suggest that cooperative norms are flexible enough to extend to artificial agents, blurring the boundary between humans and AI in collective decision-making.