Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems

📄 arXiv: 2505.21588v1 📥 PDF

作者: Young-Min Cho, Sharath Chandra Guntuku, Lyle Ungar

分类: cs.MA, cs.AI

发布日期: 2025-05-27

备注: Preprint


💡 一句话要点

研究LLM多智能体系统中群体行为,揭示同伴影响机制并实现可控协作。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM多智能体系统 群体行为 同伴影响 社会动态 协作框架

📋 核心要点

  1. 现有研究对LLM个体行为关注较多,缺乏对多智能体系统中同伴影响的深入探索,尤其是在群体行为方面。
  2. 本文通过控制实验,研究LLM智能体间的群体行为,分析自我置信度、同伴信息呈现方式等因素的影响。
  3. 实验表明,群体行为程度可控,适当的群体倾向能提升协作效果,为设计更优的多智能体系统提供指导。

📝 摘要(中文)

本文研究了基于大型语言模型(LLM)的多智能体系统中,智能体之间的同伴影响导致的群体行为。通过一系列受控实验,揭示了群体行为受多种因素影响。首先,智能体自身置信度与感知到的同伴置信度之间的差距显著影响其从众的可能性。其次,同伴信息的呈现形式在调节群体行为的强度方面起着关键作用。最后,本文证明了群体行为的程度可以被系统地控制,并且适当校准的群体倾向可以增强协作结果。这些发现为基于LLM的系统的社会动态提供了新的见解,并为设计更有效和自适应的多智能体协作框架开辟了道路。

🔬 方法详解

问题定义:本文旨在解决LLM多智能体系统中,智能体如何受到同伴影响并产生群体行为的问题。现有方法主要关注个体LLM的行为,忽略了智能体之间的相互作用,特别是同伴压力如何影响智能体的决策。这种忽略可能导致多智能体系统在协作和决策过程中出现偏差或效率低下。

核心思路:本文的核心思路是通过实验方法,系统地研究不同因素如何影响LLM智能体的群体行为。通过操纵智能体的自我置信度、同伴信息的呈现方式等变量,观察智能体是否会倾向于采纳同伴的观点,从而揭示同伴影响的内在机制。这种方法旨在量化和理解群体行为,以便更好地设计和控制多智能体系统。

技术框架:本文采用实验研究方法,设计了一系列受控实验。实验框架主要包括以下几个阶段:1)定义任务:设计一个需要智能体协作完成的任务。2)构建智能体:使用LLM构建多个智能体,并赋予其初始的知识和能力。3)引入同伴信息:向智能体展示其他智能体的观点或决策。4)观察和记录:记录智能体在接收到同伴信息后的行为变化。5)分析数据:分析实验数据,量化不同因素对群体行为的影响。

关键创新:本文的关键创新在于首次系统地研究了LLM多智能体系统中的群体行为。与以往关注个体LLM行为的研究不同,本文着重于揭示智能体之间的相互影响,特别是同伴压力如何影响智能体的决策。此外,本文还提出了控制群体行为程度的方法,为设计更有效和自适应的多智能体系统提供了新的思路。

关键设计:实验中,关键的设计包括:1)自我置信度与同伴置信度差距的量化:通过设计不同的提示语或任务难度,控制智能体对自身和同伴能力的认知。2)同伴信息呈现方式的控制:改变同伴信息的格式(例如,文本、数字、图表),观察其对智能体决策的影响。3)群体行为程度的量化指标:设计合适的指标来衡量智能体采纳同伴观点的程度。4)协作任务的设计:选择合适的协作任务,使得智能体需要相互依赖才能完成任务,从而激发群体行为。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,智能体自身置信度与感知到的同伴置信度之间的差距越大,智能体越倾向于从众。此外,同伴信息的呈现方式对群体行为的强度有显著影响,例如,以数字形式呈现的同伴信息比以文本形式呈现的同伴信息更容易导致从众行为。更重要的是,研究表明可以通过调整某些参数来系统地控制群体行为的程度,并且适当的群体倾向可以提高协作任务的完成质量。

🎯 应用场景

该研究成果可应用于开发更智能、更高效的多智能体协作系统,例如在自动驾驶、金融建模、医疗诊断等领域。通过理解和控制LLM智能体的群体行为,可以设计出能够更好地协同工作、做出更明智决策的智能体团队,从而提升整体系统的性能和可靠性。此外,该研究还有助于理解人类社会中的群体行为,为社会科学研究提供新的视角。

📄 摘要(原文)

Recent advancements in Large Language Models (LLMs) have enabled the emergence of multi-agent systems where LLMs interact, collaborate, and make decisions in shared environments. While individual model behavior has been extensively studied, the dynamics of peer influence in such systems remain underexplored. In this paper, we investigate herd behavior, the tendency of agents to align their outputs with those of their peers, within LLM-based multi-agent interactions. We present a series of controlled experiments that reveal how herd behaviors are shaped by multiple factors. First, we show that the gap between self-confidence and perceived confidence in peers significantly impacts an agent's likelihood to conform. Second, we find that the format in which peer information is presented plays a critical role in modulating the strength of herd behavior. Finally, we demonstrate that the degree of herd behavior can be systematically controlled, and that appropriately calibrated herd tendencies can enhance collaborative outcomes. These findings offer new insights into the social dynamics of LLM-based systems and open pathways for designing more effective and adaptive multi-agent collaboration frameworks.