Hidden Persuasion: Detecting Manipulative Narratives on Social Media During the 2022 Russian Invasion of Ukraine

📄 arXiv: 2505.24028v1 📥 PDF

作者: Kateryna Akhynko, Oleksandr Kosovan, Mykola Trokhymovych

分类: cs.CL

发布日期: 2025-05-29


💡 一句话要点

针对乌克兰社交媒体操纵性叙事,提出基于Gemma 2和XLM-RoBERTa的检测方案。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 社交媒体分析 操纵性叙事检测 自然语言处理 Gemma 2 XLM-RoBERTa LoRA微调 UNLP共享任务

📋 核心要点

  1. 社交媒体上针对特定人群的操纵性叙事检测是一项挑战,现有方法难以有效识别复杂的修辞和文体操纵。
  2. 本文提出一种结合Gemma 2和XLM-RoBERTa的方案,分别用于分类和跨度检测,以提升操纵性叙事的识别精度。
  3. 实验结果表明,该方案在UNLP 2025共享任务中表现出色,分类任务排名第二,跨度检测任务排名第三。

📝 摘要(中文)

本文介绍了一种在UNLP 2025社交媒体操纵检测共享任务中表现优异的解决方案。该任务专注于检测和分类用于影响乌克兰Telegram用户的修辞和文体操纵技术。对于分类子任务,我们使用LoRA适配器对Gemma 2语言模型进行了微调,并应用了利用元特征和阈值优化的第二层分类器。对于跨度检测,我们采用了一个经过多目标训练的XLM-RoBERTa模型,包括token二元分类。我们的方法在分类任务中获得了第二名,在跨度检测任务中获得了第三名。

🔬 方法详解

问题定义:该论文旨在解决社交媒体上,特别是乌克兰Telegram用户面临的操纵性叙事检测问题。现有的方法在识别复杂的修辞和文体操纵技术方面存在不足,难以有效区分正常信息和恶意信息。这使得用户容易受到虚假信息的影响,从而危害社会稳定。

核心思路:论文的核心思路是利用大型语言模型(LLM)强大的文本理解和生成能力,结合特定任务的微调和优化,从而更准确地识别和分类操纵性叙事。针对分类和跨度检测两个子任务,分别采用不同的模型和策略,以达到最佳效果。

技术框架:整体框架包含两个主要模块:分类模块和跨度检测模块。分类模块首先使用LoRA适配器对Gemma 2语言模型进行微调,然后使用第二层分类器,该分类器利用元特征和阈值优化来提高分类精度。跨度检测模块使用XLM-RoBERTa模型,并针对多目标任务进行训练,包括token二元分类,以识别操纵性文本的范围。

关键创新:该论文的关键创新在于结合了Gemma 2和XLM-RoBERTa两种模型,并针对特定任务进行了优化。使用LoRA适配器对Gemma 2进行微调,降低了计算成本,同时保持了模型的性能。第二层分类器和多目标训练策略进一步提高了分类和跨度检测的精度。

关键设计:在分类模块中,LoRA适配器的具体参数设置(如秩的大小)需要根据实验进行调整。第二层分类器的元特征包括模型输出的置信度、文本长度等。阈值优化旨在找到最佳的分类阈值,以平衡精度和召回率。在跨度检测模块中,XLM-RoBERTa模型采用标准的Transformer结构,损失函数包括交叉熵损失等。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该方案在UNLP 2025共享任务中取得了显著成果,分类任务排名第二,跨度检测任务排名第三。相较于其他参赛方案,该方案在精度和召回率之间取得了较好的平衡,能够有效识别和定位操纵性文本。实验结果验证了Gemma 2和XLM-RoBERTa模型在处理此类任务上的有效性。

🎯 应用场景

该研究成果可应用于社交媒体平台的内容审核,帮助识别和过滤虚假信息和操纵性叙事,从而保护用户免受误导和欺骗。此外,该技术还可用于舆情分析、网络安全等领域,提升对恶意信息传播的监测和防御能力,维护网络空间的健康和安全。

📄 摘要(原文)

This paper presents one of the top-performing solutions to the UNLP 2025 Shared Task on Detecting Manipulation in Social Media. The task focuses on detecting and classifying rhetorical and stylistic manipulation techniques used to influence Ukrainian Telegram users. For the classification subtask, we fine-tuned the Gemma 2 language model with LoRA adapters and applied a second-level classifier leveraging meta-features and threshold optimization. For span detection, we employed an XLM-RoBERTa model trained for multi-target, including token binary classification. Our approach achieved 2nd place in classification and 3rd place in span detection.