Social Dynamics as Critical Vulnerabilities that Undermine Objective Decision-Making in LLM Collectives
作者: Changgeon Ko, Jisu Shin, Hoyun Song, Huije Lee, Eui Jun Hwang, Jong C. Park
分类: cs.CL, cs.AI, cs.MA
发布日期: 2026-04-07
备注: ACL 2026
💡 一句话要点
揭示LLM群体决策中社会动力学对客观性的负面影响
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: LLM智能体 群体决策 社会心理学 社会顺从 专家效应 多智能体系统 决策偏见
📋 核心要点
- 现有LLM智能体在群体决策中易受社会因素影响,导致客观性下降,缺乏对社会动态的鲁棒性。
- 通过模拟社会心理学现象,研究对抗群体规模、智能水平、论证方式等因素对LLM决策的影响。
- 实验表明,社会压力越大,LLM代表性智能体的决策准确性越低,揭示了其在社会环境中的脆弱性。
📝 摘要(中文)
大型语言模型(LLM)智能体越来越多地在多智能体环境中充当人类代表,由一个代表性智能体整合来自同伴的不同观点以做出最终决策。受社会心理学的启发,本文研究了这种代表性智能体的可靠性如何被其网络的社会环境所削弱。我们定义了四个关键现象——社会顺从、感知到的专业知识、主导发言者效应和修辞说服——并系统地操纵了对抗者的数量、相对智能、论证长度和论证风格。实验表明,随着社会压力的增加,代表性智能体的准确性持续下降:更大的对抗群体、更有能力的同伴和更长的论证都会导致显著的性能下降。此外,强调可信度或逻辑的修辞策略可以进一步影响智能体的判断,具体取决于上下文。这些发现表明,多智能体系统不仅对个体推理敏感,而且对其配置的社会动态也敏感,突出了AI代表的关键漏洞,这些漏洞反映了在人类群体决策中观察到的心理偏差。
🔬 方法详解
问题定义:论文旨在研究在多智能体环境中,代表性LLM智能体如何受到社会因素的影响,从而偏离客观决策。现有方法主要关注个体LLM的推理能力,忽略了群体交互中的社会动态,导致LLM在模拟人类决策时出现偏差。
核心思路:论文的核心思路是借鉴社会心理学的理论,将LLM智能体置于模拟的社会环境中,并研究各种社会因素(如社会顺从、专家效应、主导发言者效应、修辞说服)如何影响其决策过程。通过操纵这些因素,观察代表性智能体的决策准确性变化,从而揭示LLM在群体决策中的脆弱性。
技术框架:论文构建了一个多智能体决策框架,其中包含一个代表性智能体和多个同伴智能体。代表性智能体的任务是整合同伴的观点,做出最终决策。研究人员通过操纵以下变量来模拟不同的社会环境:1) 对抗者的数量;2) 相对智能(同伴智能体的能力);3) 论证长度;4) 论证风格(强调可信度或逻辑)。通过对比不同社会环境下的决策准确性,评估社会因素的影响。
关键创新:论文的关键创新在于将社会心理学的理论引入到LLM智能体的研究中,揭示了LLM在群体决策中存在的社会偏见。与以往关注个体推理能力的研究不同,本文强调了社会动态对LLM决策的影响,为提高LLM在多智能体环境中的鲁棒性提供了新的视角。
关键设计:论文的关键设计包括:1) 精心设计的实验场景,模拟了真实的社会决策环境;2) 对社会因素的系统性操纵,使得研究人员能够量化不同因素的影响;3) 使用准确率作为评估指标,客观地衡量了代表性智能体的决策质量。此外,论文还考虑了不同论证风格(例如,强调可信度或逻辑)对决策的影响,增加了研究的深度。
📊 实验亮点
实验结果表明,随着对抗群体规模的增加,代表性智能体的准确率显著下降。例如,在特定场景下,当对抗者数量增加到一定程度时,准确率下降超过15%。此外,更具能力的同伴和更长的论证也会导致性能下降。强调可信度或逻辑的修辞策略也会显著影响智能体的判断,具体效果取决于上下文。
🎯 应用场景
该研究成果可应用于开发更可靠、更公正的AI决策系统,尤其是在涉及群体讨论和意见整合的场景中,如在线论坛管理、政策制定辅助、医疗诊断等。通过减轻社会偏见的影响,提升AI系统的客观性和公平性,从而更好地服务于人类社会。
📄 摘要(原文)
Large language model (LLM) agents are increasingly acting as human delegates in multi-agent environments, where a representative agent integrates diverse peer perspectives to make a final decision. Drawing inspiration from social psychology, we investigate how the reliability of this representative agent is undermined by the social context of its network. We define four key phenomena-social conformity, perceived expertise, dominant speaker effect, and rhetorical persuasion-and systematically manipulate the number of adversaries, relative intelligence, argument length, and argumentative styles. Our experiments demonstrate that the representative agent's accuracy consistently declines as social pressure increases: larger adversarial groups, more capable peers, and longer arguments all lead to significant performance degradation. Furthermore, rhetorical strategies emphasizing credibility or logic can further sway the agent's judgment, depending on the context. These findings reveal that multi-agent systems are sensitive not only to individual reasoning but also to the social dynamics of their configuration, highlighting critical vulnerabilities in AI delegates that mirror the psychological biases observed in human group decision-making.