Spiral of Silence in Large Language Model Agents

📄 arXiv: 2510.02360v2 📥 PDF

作者: Mingze Zhong, Meng Fang, Zijing Shi, Yuxuan Huang, Shunfeng Zheng, Yali Du, Ling Chen, Jun Wang

分类: cs.CL, cs.AI

发布日期: 2025-09-28 (更新: 2025-10-08)

备注: Accepted to EMNLP 2025 (Findings)


💡 一句话要点

提出LLM Agent螺旋沉默评估框架,揭示历史和人设信号对群体意见的影响

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 螺旋沉默 群体智能 计算社会学 意见动态

📋 核心要点

  1. 现有研究缺乏对LLM智能体群体中螺旋沉默现象的系统评估,无法有效理解群体意见形成机制。
  2. 本文提出一种评估框架,通过控制历史和人设信号,观察LLM智能体群体意见的动态变化。
  3. 实验表明,历史和人设信号共同作用会增强多数派主导,而历史信号是螺旋沉默动态出现的必要条件。

📝 摘要(中文)

螺旋沉默理论认为,少数派观点持有者因害怕社会孤立而避免发声,从而使多数派立场主导公共讨论。当“智能体”是大型语言模型(LLM)时,传统的心理学解释不再直接适用。本文探讨了类螺旋沉默动态是否能在LLM群体中纯粹通过统计语言生成而涌现。为此,我们提出了一个评估LLM智能体中螺旋沉默现象的框架。具体而言,我们考虑了四个受控条件,系统地改变了“历史”和“人设”信号的可用性。使用Mann-Kendall和Spearman等级等趋势测试以及峰度和四分位距等集中度度量来评估意见动态。跨开源和闭源模型的实验表明,历史和人设信号共同作用会产生强大的多数派主导并复制螺旋沉默模式;单独的历史信号会诱导强烈的锚定效应;单独的人设信号会促进多样但互不相关的观点,表明没有历史锚定,螺旋沉默动态无法出现。这项工作连接了计算社会学和负责任的AI设计,强调了监控和缓解LLM智能体系统中涌现的一致性的必要性。

🔬 方法详解

问题定义:论文旨在研究在LLM智能体群体中,是否会涌现类似于人类社会中的“螺旋沉默”现象。现有方法缺乏针对LLM智能体的评估框架,无法理解历史信息和人设信息如何影响群体意见的形成和演变。现有方法难以量化LLM智能体群体意见的集中程度和趋势。

核心思路:论文的核心思路是通过控制LLM智能体可以访问的历史信息(History)和人设信息(Persona),观察群体意见的动态变化。通过系统地改变这两种信号的可用性,分析它们对意见极化、多数派主导以及螺旋沉默现象的影响。这种受控实验的设计允许研究人员隔离不同因素对群体意见的影响,从而更深入地理解LLM智能体中的社会动态。

技术框架:该研究的技术框架主要包括以下几个步骤: 1. 情景设定:设计特定的社会情境,例如关于某个社会问题的讨论。 2. 智能体配置:为LLM智能体配置不同的历史信息和人设信息。 3. 意见生成:让智能体基于其配置的信息生成观点。 4. 动态评估:使用统计方法(如Mann-Kendall趋势测试、Spearman等级相关系数、峰度、四分位距)分析群体意见的演变趋势和集中程度。

关键创新:该研究的关键创新在于: 1. 提出了一种评估LLM智能体中螺旋沉默现象的框架:该框架允许研究人员系统地研究不同因素对群体意见的影响。 2. 揭示了历史信息和人设信息在LLM智能体群体意见形成中的作用:研究表明,历史信息是螺旋沉默动态出现的必要条件,而人设信息可以促进意见的多样性。 3. 将计算社会学理论应用于LLM智能体研究:该研究将螺旋沉默理论引入LLM领域,为理解和控制LLM智能体群体行为提供了新的视角。

关键设计: 1. 四种受控条件:(1) 同时提供历史和人设信息;(2) 仅提供历史信息;(3) 仅提供人设信息;(4) 不提供任何信息。 2. 趋势测试:使用Mann-Kendall趋势测试和Spearman等级相关系数来评估意见随时间变化的趋势。 3. 集中度度量:使用峰度和四分位距来衡量群体意见的集中程度。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,同时提供历史和人设信息会导致强烈的多数派主导,并复制螺旋沉默模式。单独的历史信息会诱导强烈的锚定效应,而单独的人设信息会促进多样但互不相关的观点。这些结果强调了历史信息在LLM智能体群体意见形成中的关键作用。

🎯 应用场景

该研究成果可应用于社交媒体平台、在线论坛等场景,帮助理解和预测LLM驱动的对话机器人在群体讨论中的行为模式。通过控制历史和人设信息,可以设计更公平、更具包容性的AI系统,避免多数派意见过度主导,促进多元观点的表达。该研究对负责任的AI设计具有重要意义。

📄 摘要(原文)

The Spiral of Silence (SoS) theory holds that individuals with minority views often refrain from speaking out for fear of social isolation, enabling majority positions to dominate public discourse. When the 'agents' are large language models (LLMs), however, the classical psychological explanation is not directly applicable, since SoS was developed for human societies. This raises a central question: can SoS-like dynamics nevertheless emerge from purely statistical language generation in LLM collectives? We propose an evaluation framework for examining SoS in LLM agents. Specifically, we consider four controlled conditions that systematically vary the availability of 'History' and 'Persona' signals. Opinion dynamics are assessed using trend tests such as Mann-Kendall and Spearman's rank, along with concentration measures including kurtosis and interquartile range. Experiments across open-source and closed-source models show that history and persona together produce strong majority dominance and replicate SoS patterns; history signals alone induce strong anchoring; and persona signals alone foster diverse but uncorrelated opinions, indicating that without historical anchoring, SoS dynamics cannot emerge. The work bridges computational sociology and responsible AI design, highlighting the need to monitor and mitigate emergent conformity in LLM-agent systems.