Counterspeech for Mitigating the Influence of Media Bias: Comparing Human and LLM-Generated Responses

📄 arXiv: 2508.15855v1 📥 PDF

作者: Luyang Lin, Zijin Feng, Lingzhi Wang, Kam-Fai Wong

分类: cs.CL, cs.CY, cs.SI

发布日期: 2025-08-20


💡 一句话要点

提出反言论以缓解媒体偏见影响

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 媒体偏见 反言论 攻击性评论 社会极化 自然语言处理 生成模型 少量学习

📋 核心要点

  1. 偏见新闻和敌意评论的结合加剧了社会极化,现有应对措施不足以有效缓解这一问题。
  2. 本研究提出了一种反言论生成方法,通过手动标注的数据集来关联媒体偏见和攻击性评论。
  3. 实验结果表明,模型生成的反言论在礼貌性上优于人类生成,但在新颖性和多样性上有所欠缺。

📝 摘要(中文)

偏见新闻助长社会极化,且常被敌意评论强化,成为新闻传播中一个重要但常被忽视的方面。本研究揭示,攻击性评论支持偏见内容,放大偏见并对特定群体或个人造成伤害。反言论是一种有效的应对有害言论的方法,有助于限制偏见传播。我们首次探讨了新闻文章中的反言论生成,介绍了一个手动标注的数据集,关联媒体偏见、攻击性评论和反言论。分析显示,超过70%的攻击性评论支持偏见文章,强调了反言论生成的重要性。比较人类与大型语言模型生成的反言论,我们发现模型生成的回应更为礼貌,但缺乏新颖性和多样性。最后,通过少量学习和整合新闻背景信息,我们提升了生成的反言论的多样性和相关性。

🔬 方法详解

问题定义:本研究旨在解决偏见新闻和攻击性评论对社会极化的影响,现有方法未能有效应对这种有害言论的传播。

核心思路:通过生成反言论来对抗攻击性评论,限制偏见传播,同时不侵犯言论自由。我们设计了一个手动标注的数据集,首次将反言论生成应用于新闻语境。

技术框架:整体流程包括数据集构建、反言论生成模型训练和生成结果评估。主要模块包括数据预处理、模型训练和结果分析。

关键创新:首次将反言论生成与媒体偏见结合,提出了通过少量学习和背景信息整合来提升生成内容的多样性和相关性。

关键设计:在模型训练中,采用了特定的损失函数来优化生成内容的礼貌性和相关性,同时设置了多样性参数以增强生成结果的丰富性。

📊 实验亮点

实验结果显示,超过70%的攻击性评论支持偏见文章,强调反言论生成的重要性。与人类生成的反言论相比,模型生成的回应在礼貌性上表现更佳,但在新颖性和多样性上存在不足。通过少量学习和背景信息整合,生成的反言论在多样性和相关性上得到了显著提升。

🎯 应用场景

该研究的潜在应用领域包括社交媒体平台、新闻网站和在线评论系统。通过有效生成反言论,可以减少偏见传播,促进更健康的在线讨论环境,具有重要的社会价值和影响力。

📄 摘要(原文)

Biased news contributes to societal polarization and is often reinforced by hostile reader comments, constituting a vital yet often overlooked aspect of news dissemination. Our study reveals that offensive comments support biased content, amplifying bias and causing harm to targeted groups or individuals. Counterspeech is an effective approach to counter such harmful speech without violating freedom of speech, helping to limit the spread of bias. To the best of our knowledge, this is the first study to explore counterspeech generation in the context of news articles. We introduce a manually annotated dataset linking media bias, offensive comments, and counterspeech. We conduct a detailed analysis showing that over 70\% offensive comments support biased articles, amplifying bias and thus highlighting the importance of counterspeech generation. Comparing counterspeech generated by humans and large language models, we find model-generated responses are more polite but lack the novelty and diversity. Finally, we improve generated counterspeech through few-shot learning and integration of news background information, enhancing both diversity and relevance.