From Manipulation to Mistrust: Explaining Diverse Micro-Video Misinformation for Robust Debunking in the Wild

📄 arXiv: 2603.25423v1 📥 PDF

作者: Zhi Zeng, Yifei Yang, Jiaying Wu, Xulang Zhang, Xiangzheng Kong, Herun Wan, Zihan Ma, Minnan Luo

分类: cs.SI, cs.AI

发布日期: 2026-03-26

备注: Accepted at WWW 2026

🔗 代码/项目: GITHUB


💡 一句话要点

提出WildFakeBench和FakeAgent,用于检测和解释微视频中的多样化虚假信息。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 微视频虚假信息检测 多模态学习 可解释性AI 多智能体系统 知识图谱 认知偏差 AI生成内容

📋 核心要点

  1. 现有微视频虚假信息检测benchmark缺乏多样性,无法覆盖现实世界中复杂的多模态操纵和认知偏差等情况。
  2. 提出FakeAgent,一个多智能体推理框架,结合多模态理解和外部证据,进行基于归因的虚假信息分析。
  3. 实验表明,FakeAgent在WildFakeBench上优于现有MLLM,为可解释的微视频虚假信息检测提供了有效方案。

📝 摘要(中文)

微视频的兴起改变了虚假信息的传播方式,加速了传播速度,扩大了影响范围,并降低了公众信任度。现有的基准测试通常只关注单一类型的欺骗,忽略了现实世界中涉及多模态操纵、AI生成内容、认知偏差和脱离上下文重用的多样性案例。同时,大多数检测模型缺乏细粒度的归因,限制了解释性和实用性。为了解决这些问题,我们引入了WildFakeBench,这是一个大规模的基准测试,包含超过10,000个真实世界的微视频,涵盖了各种虚假信息类型和来源,每个视频都标注了专家定义的归因标签。在此基础上,我们开发了FakeAgent,一个受Delphi启发的的多智能体推理框架,它集成了多模态理解和外部证据,用于基于归因的分析。FakeAgent联合分析内容和检索到的证据,以识别操纵、识别认知和AI生成的模式,并检测脱离上下文的虚假信息。大量的实验表明,FakeAgent在所有虚假信息类型上始终优于现有的MLLM,而WildFakeBench为推进可解释的微视频虚假信息检测提供了一个现实且具有挑战性的测试平台。数据和代码可在https://github.com/Aiyistan/FakeAgent获取。

🔬 方法详解

问题定义:现有微视频虚假信息检测方法主要存在两个痛点:一是数据集的局限性,现有数据集通常只关注单一类型的虚假信息,无法覆盖现实世界中复杂多样的虚假信息类型;二是模型缺乏可解释性,无法提供细粒度的归因分析,难以让用户理解判断依据。

核心思路:论文的核心思路是构建一个更全面、更具挑战性的benchmark(WildFakeBench),并在此基础上开发一个可解释性更强的检测模型(FakeAgent)。通过多智能体协同推理,结合多模态信息和外部知识,实现对微视频虚假信息的准确检测和细粒度归因。

技术框架:FakeAgent采用多智能体推理框架,主要包含以下几个模块:1) 多模态特征提取模块,用于提取微视频的视觉、文本和音频特征;2) 外部证据检索模块,用于从外部知识库中检索与微视频相关的证据;3) 智能体推理模块,包含多个智能体,分别负责识别操纵、认知偏差、AI生成内容和脱离上下文重用等虚假信息类型;4) 归因分析模块,用于生成细粒度的归因标签,解释模型的判断依据。

关键创新:FakeAgent的关键创新在于其多智能体推理框架,该框架能够模拟人类专家进行虚假信息分析的过程,将复杂的虚假信息检测任务分解为多个子任务,并由不同的智能体协同完成。与现有方法相比,FakeAgent能够更好地处理多样化的虚假信息类型,并提供更具解释性的归因分析。

关键设计:FakeAgent的具体实现细节包括:1) 使用预训练的多模态模型(如CLIP)提取微视频特征;2) 使用搜索引擎(如Google)检索外部证据;3) 使用Transformer模型构建智能体,并采用对比学习方法训练智能体;4) 使用专家定义的规则生成归因标签。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

FakeAgent在WildFakeBench上进行了广泛的实验,结果表明,FakeAgent在所有虚假信息类型上都优于现有的MLLM,证明了其有效性和泛化能力。具体而言,FakeAgent在准确率、召回率和F1值等指标上均取得了显著提升,尤其是在处理复杂的多模态虚假信息时,优势更加明显。

🎯 应用场景

该研究成果可应用于社交媒体平台、新闻媒体机构等,用于自动检测和识别微视频中的虚假信息,提高信息发布的真实性和可靠性,减少虚假信息对社会舆论的影响。同时,该研究也有助于提高公众对虚假信息的识别能力,增强网络安全意识。

📄 摘要(原文)

The rise of micro-videos has reshaped how misinformation spreads, amplifying its speed, reach, and impact on public trust. Existing benchmarks typically focus on a single deception type, overlooking the diversity of real-world cases that involve multimodal manipulation, AI-generated content, cognitive bias, and out-of-context reuse. Meanwhile, most detection models lack fine-grained attribution, limiting interpretability and practical utility. To address these gaps, we introduce WildFakeBench, a large-scale benchmark of over 10,000 real-world micro-videos covering diverse misinformation types and sources, each annotated with expert-defined attribution labels. Building on this foundation, we develop FakeAgent, a Delphi-inspired multi-agent reasoning framework that integrates multimodal understanding with external evidence for attribution-grounded analysis. FakeAgent jointly analyzes content and retrieved evidence to identify manipulation, recognize cognitive and AI-generated patterns, and detect out-of-context misinformation. Extensive experiments show that FakeAgent consistently outperforms existing MLLMs across all misinformation types, while WildFakeBench provides a realistic and challenging testbed for advancing explainable micro-video misinformation detection. Data and code are available at: https://github.com/Aiyistan/FakeAgent.