Fit for Purpose? Deepfake Detection in the Real World

📄 arXiv: 2510.16556v2 📥 PDF

作者: Guangyu Lin, Li Lin, Christina P. Walker, Daniel S. Schiff, Shu Hu

分类: cs.CV

发布日期: 2025-10-18 (更新: 2025-10-30)


💡 一句话要点

构建真实政治Deepfake基准,揭示现有检测器泛化能力不足

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Deepfake检测 政治Deepfake 真实数据基准 泛化能力 鲁棒性 虚假信息 社交媒体 内容审核

📋 核心要点

  1. 现有deepfake检测模型主要依赖合成数据训练,缺乏在真实政治deepfake场景下的泛化能力。
  2. 论文构建了基于真实政治Deepfake事件数据库的基准,用于系统评估现有检测器的性能。
  3. 实验结果表明,现有检测器在真实政治deepfake上表现不佳,易受简单操作影响,亟需改进。

📝 摘要(中文)

人工智能生成内容,特别是政治deepfake的迅速扩散,加剧了虚假信息的风险,并削弱了对政治机构的信任。为了应对这一挑战,政府、研究机构和工业界大力推广deepfake检测技术。然而,现有模型大多在实验室控制的合成数据集上训练和验证,限制了它们在真实社交平台上流通的政治deepfake上的泛化能力。本文基于政治Deepfake事件数据库,构建了首个系统性基准,该数据库收集了自2018年以来在社交媒体上分享的真实政治deepfake。研究对学术界、政府和工业界的先进deepfake检测器进行了系统评估。结果表明,学术界和政府的检测器表现相对较差。虽然付费检测工具的性能优于免费模型,但所有评估的检测器都难以有效地泛化到真实的政治deepfake,并且容易受到简单操作的影响,尤其是在视频领域。研究结果表明,需要政治背景化的deepfake检测框架,以更好地保护公众。

🔬 方法详解

问题定义:现有deepfake检测方法主要在合成数据集上训练,与真实世界政治deepfake存在显著差异,导致模型在实际应用中泛化能力不足。现有方法难以有效识别社交媒体上流传的、经过各种处理的政治deepfake,从而无法有效防范虚假信息传播。

核心思路:论文的核心思路是构建一个更贴近真实场景的政治deepfake基准数据集,并在此基础上评估现有deepfake检测器的性能。通过分析现有方法在真实数据上的表现,揭示其局限性,从而推动更具实用性的deepfake检测技术发展。

技术框架:论文构建的基准数据集基于“政治Deepfakes事件数据库”,该数据库收集了自2018年以来在社交媒体上分享的真实政治deepfake。研究选取了学术界、政府和工业界的多个state-of-the-art deepfake检测器,并在该基准数据集上进行评估。评估指标包括检测准确率、泛化能力以及对简单操作的鲁棒性。

关键创新:该研究的关键创新在于构建了一个真实世界的政治deepfake基准数据集,这与以往研究中常用的合成数据集有本质区别。该基准数据集能够更真实地反映实际应用场景中deepfake的特点和挑战,从而为deepfake检测技术的发展提供更有效的指导。

关键设计:论文的关键设计包括:1) 数据集的构建过程,确保数据来源于真实社交媒体,并经过人工审核;2) 评估指标的选择,除了传统的准确率外,还关注了模型的泛化能力和鲁棒性;3) 对比实验的设计,选取了不同来源(学术界、政府、工业界)的代表性deepfake检测器进行评估。

🖼️ 关键图片

img_0

📊 实验亮点

实验结果表明,现有deepfake检测器在真实政治deepfake数据集上的性能显著下降,即使是付费检测工具也难以有效泛化。此外,研究发现现有检测器容易受到简单操作(如视频压缩、添加噪声)的影响,表明其鲁棒性较差。这些结果突出了现有方法在实际应用中的局限性,并强调了开发政治背景化的deepfake检测框架的重要性。

🎯 应用场景

该研究成果可应用于社交媒体平台的内容审核、新闻媒体的真实性验证、以及政府机构的舆情监控等领域。通过提升deepfake检测技术在真实场景下的性能,可以有效遏制虚假信息的传播,维护社会稳定和公众利益。未来,该研究可以促进开发更具鲁棒性和泛化能力的deepfake检测系统,并为相关政策制定提供参考。

📄 摘要(原文)

The rapid proliferation of AI-generated content, driven by advances in generative adversarial networks, diffusion models, and multimodal large language models, has made the creation and dissemination of synthetic media effortless, heightening the risks of misinformation, particularly political deepfakes that distort truth and undermine trust in political institutions. In turn, governments, research institutions, and industry have strongly promoted deepfake detection initiatives as solutions. Yet, most existing models are trained and validated on synthetic, laboratory-controlled datasets, limiting their generalizability to the kinds of real-world political deepfakes circulating on social platforms that affect the public. In this work, we introduce the first systematic benchmark based on the Political Deepfakes Incident Database, a curated collection of real-world political deepfakes shared on social media since 2018. Our study includes a systematic evaluation of state-of-the-art deepfake detectors across academia, government, and industry. We find that the detectors from academia and government perform relatively poorly. While paid detection tools achieve relatively higher performance than free-access models, all evaluated detectors struggle to generalize effectively to authentic political deepfakes, and are vulnerable to simple manipulations, especially in the video domain. Results urge the need for politically contextualized deepfake detection frameworks to better safeguard the public in real-world settings.