Strategic Algorithmic Monoculture:Experimental Evidence from Coordination Games
作者: Gonzalo Ballestero, Hadi Hosseini, Samarth Khanna, Ran I. Shorrer
分类: cs.AI, cs.GT, cs.MA, econ.TH
发布日期: 2026-04-10
💡 一句话要点
研究表明LLM在协调博弈中表现出策略性算法趋同,但维持异质性方面不如人类
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 算法趋同 多智能体系统 协调博弈 大型语言模型 实验博弈论 人机协作 人工智能安全
📋 核心要点
- 多智能体环境中,AI的协调能力至关重要,但现有方法对算法趋同的激励机制研究不足。
- 论文区分了基线行为相似性(主要趋同)和受激励驱动的相似性调整(策略性趋同),并设计实验分离这两种力量。
- 实验表明LLM具有较高的基线相似性,并能根据激励调节相似性,但在维持异质性方面不如人类。
📝 摘要(中文)
人工智能体越来越多地在多智能体环境中运行,其结果取决于协调。我们区分了主要的算法趋同(基线行为相似性)和策略性算法趋同,后者是指智能体根据激励调整相似性。我们实现了一个简单的实验设计,可以清晰地分离这些力量,并将其部署在人类和大型语言模型(LLM)受试者上。LLM表现出高水平的基线相似性(主要趋同),并且像人类一样,它们会根据协调激励来调节它(策略性趋同)。虽然LLM在相似行为上的协调非常好,但在奖励差异时,它们在维持异质性方面落后于人类。
🔬 方法详解
问题定义:论文旨在研究在多智能体协调博弈中,大型语言模型(LLM)是否以及如何根据激励调整其行为的相似性。现有方法缺乏对算法趋同现象中,基线相似性和策略性调整的区分,难以理解LLM在不同激励下的协调行为。
核心思路:论文的核心思路是将算法趋同分解为两个部分:一是“主要算法趋同”,即智能体在没有特定激励的情况下表现出的基线行为相似性;二是“策略性算法趋同”,即智能体根据协调激励调整其行为相似性的能力。通过实验设计,将这两种力量分离,从而更清晰地观察LLM的行为。
技术框架:论文采用实验博弈论的方法。设计了一个简单的协调博弈,其中智能体需要选择行动,并根据其行动与他人的匹配程度获得奖励。实验对象包括人类和LLM。通过改变奖励机制,分别考察在奖励相似行动和奖励不同行动的情况下,智能体的行为模式。
关键创新:论文的关键创新在于区分了“主要算法趋同”和“策略性算法趋同”这两个概念,并设计实验方法来分离和研究这两种现象。这为理解LLM在多智能体环境中的行为提供了新的视角。
关键设计:实验设计的关键在于奖励机制的设置。在一种情况下,智能体因选择与其他智能体相似的行动而获得奖励;在另一种情况下,智能体因选择与其他智能体不同的行动而获得奖励。通过比较这两种情况下的行为模式,可以推断出智能体是否以及如何根据激励调整其行为相似性。具体参数设置和损失函数(如果存在)在论文中未详细说明,属于实验细节,可能与具体的LLM实现有关。
📊 实验亮点
实验结果表明,LLM表现出较高的基线相似性(主要趋同),并且像人类一样,能够根据协调激励来调节其行为相似性(策略性趋同)。然而,在奖励差异时,LLM在维持异质性方面不如人类。这表明LLM在协调方面具有优势,但在需要多样性时可能存在局限性。具体的性能数据和提升幅度在论文中未明确量化。
🎯 应用场景
该研究成果可应用于设计更有效的人工智能协作系统,例如自动驾驶、机器人团队协作和分布式计算。理解LLM的策略性趋同行为有助于预测和控制其在复杂环境中的表现,并促进人机协作的优化。此外,该研究对于评估和改进LLM的安全性,避免其在特定激励下产生不良行为具有重要意义。
📄 摘要(原文)
AI agents increasingly operate in multi-agent environments where outcomes depend on coordination. We distinguish primary algorithmic monoculture -- baseline action similarity -- from strategic algorithmic monoculture, whereby agents adjust similarity in response to incentives. We implement a simple experimental design that cleanly separates these forces, and deploy it on human and large language model (LLM) subjects. LLMs exhibit high levels of baseline similarity (primary monoculture) and, like humans, they regulate it in response to coordination incentives (strategic monoculture). While LLMs coordinate extremely well on similar actions, they lag behind humans in sustaining heterogeneity when divergence is rewarded.