Network Effects and Agreement Drift in LLM Debates
作者: Erica Cau, Andrea Failla, Giulio Rossetti
分类: cs.SI, cs.AI, cs.CY, cs.MA, physics.soc-ph
发布日期: 2026-04-13
💡 一句话要点
研究LLM在不平衡辩论中的行为,揭示网络效应和“一致性漂移”现象
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 社会模拟 网络效应 一致性漂移 群体行为 模型偏差 多智能体系统
📋 核心要点
- 现有方法难以保证LLM在模拟社会系统时,尤其是在不平衡群体中,能准确捕捉关键社会机制。
- 论文通过控制网络同质性和群体规模,研究LLM智能体在多轮辩论中的行为,揭示“一致性漂移”现象。
- 研究发现LLM智能体在辩论中更倾向于转向特定立场,强调区分结构性影响和模型偏差的重要性。
📝 摘要(中文)
大型语言模型(LLM)展现了前所未有的模拟类人社会行为的能力,使其成为模拟复杂社会系统的有用工具。然而,这些模拟在多大程度上能够准确捕捉关键社会机制,尤其是在涉及少数群体的高度不平衡环境中,仍然不清楚。本文使用具有受控同质性和类别大小的网络生成模型,来检验LLM智能体在多轮辩论中的集体行为。此外,我们的研究结果突出了一种特殊的定向易感性,我们称之为“一致性漂移”,即智能体更有可能转向意见量表上的特定立场。总的来说,我们的研究结果强调,在将LLM群体视为人类群体的行为代理之前,需要将结构性影响与模型偏差区分开来。
🔬 方法详解
问题定义:论文旨在研究在不平衡的社会环境中,LLM智能体在多轮辩论中的行为模式。现有方法的痛点在于,无法有效区分LLM模拟结果中由社会结构(如群体规模、同质性)引起的影响和模型自身固有的偏差,从而难以判断LLM是否能作为人类群体行为的可靠代理。
核心思路:论文的核心思路是通过构建具有可控同质性和群体规模的网络,模拟社会辩论场景,并观察LLM智能体在辩论过程中的意见变化。通过控制网络结构,可以更好地分离结构性因素对LLM行为的影响,从而识别出模型自身的偏差,即“一致性漂移”现象。
技术框架:论文的技术框架主要包含以下几个阶段: 1. 网络生成:使用网络生成模型创建具有不同同质性和群体规模的社交网络。 2. LLM智能体初始化:在网络中的每个节点上部署一个LLM智能体,并赋予其初始意见。 3. 多轮辩论模拟:模拟多轮辩论,智能体根据其邻居的意见更新自己的意见。 4. 结果分析:分析智能体意见的变化,识别“一致性漂移”现象,并评估网络结构对LLM行为的影响。
关键创新:论文最重要的技术创新点在于提出了“一致性漂移”的概念,并揭示了LLM在模拟社会辩论时存在系统性的意见偏向。这种偏向并非完全由社会结构驱动,而是模型自身固有的偏差。
关键设计:论文的关键设计包括: 1. 网络生成模型:使用能够精确控制同质性和群体规模的网络生成模型,例如LFR benchmark。 2. 意见更新机制:设计合理的意见更新机制,例如基于邻居意见的加权平均。 3. LLM选择:选择具有代表性的LLM,例如GPT-3或GPT-4,并进行适当的prompt工程,以确保其能够有效地参与辩论。
🖼️ 关键图片
📊 实验亮点
实验结果表明,LLM智能体在辩论中存在显著的“一致性漂移”现象,即更容易向特定立场靠拢。这种漂移与网络结构(如同质性和群体规模)有关,但并非完全由其决定,表明LLM自身存在固有的偏差。研究还量化了不同网络结构下“一致性漂移”的程度,为评估LLM在社会模拟中的可靠性提供了量化指标。
🎯 应用场景
该研究成果可应用于评估和改进LLM在社会模拟中的可靠性,尤其是在涉及敏感议题或弱势群体的场景中。通过识别和缓解LLM的偏差,可以提高社会模拟的准确性和公正性,从而为政策制定和社会干预提供更可靠的依据。此外,该研究也有助于开发更具社会意识和伦理道德的LLM。
📄 摘要(原文)
Large Language Models (LLMs) have demonstrated an unprecedented ability to simulate human-like social behaviors, making them useful tools for simulating complex social systems. However, it remains unclear to what extent these simulations can be trusted to accurately capture key social mechanisms, particularly in highly unbalanced contexts involving minority groups. This paper uses a network generation model with controlled homophily and class sizes to examine how LLM agents behave collectively in multi-round debates. Moreover, our findings highlight a particular directional susceptibility that we term \textit{agreement drift}, in which agents are more likely to shift toward specific positions on the opinion scale. Overall, our findings highlight the need to disentangle structural effects from model biases before treating LLM populations as behavioral proxies for human groups.