TruthLens: Visual Grounding for Universal DeepFake Reasoning

📄 arXiv: 2503.15867v3 📥 PDF

作者: Rohit Kundu, Shan Jia, Vishal Mohanty, Athula Balachandran, Amit K. Roy-Chowdhury

分类: cs.CV, cs.AI

发布日期: 2025-03-20 (更新: 2025-09-03)


💡 一句话要点

TruthLens:面向通用DeepFake推理的可视化定位框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: DeepFake检测 多模态学习 大型语言模型 视觉定位 可解释性AI

📋 核心要点

  1. 现有DeepFake检测方法局限于真假二元分类,缺乏可解释性,难以提供细粒度的篡改区域定位。
  2. TruthLens提出了一种统一的框架,通过MLLM定位,结合全局语义上下文和区域取证线索,实现细粒度的文本推理。
  3. 实验表明,TruthLens在可解释性和检测精度上均达到新高度,并能泛化到未知的篡改类型。

📝 摘要(中文)

随着AI图像生成器的广泛应用,创建人脸操纵和完全合成的内容变得轻而易举,检测DeepFake已成为一个至关重要的研究领域。然而,现有的方法通常仅限于二元分类(真/假),并且缺乏可解释性。为了解决这些挑战,我们提出了TruthLens,这是一个新颖、统一且高度通用的框架,它超越了传统的二元分类,为其预测提供详细的文本推理。与传统方法不同,TruthLens执行MLLM定位。TruthLens使用任务驱动的表示集成策略,通过显式跨模态自适应视觉模型,将来自多模态大型语言模型(MLLM)的全局语义上下文与区域特定的取证线索结合起来。这使得能够对人脸操纵和完全合成的内容进行细致的、区域定位的推理,并支持诸如“眼睛/鼻子/嘴巴看起来是真实的还是假的?”等细粒度查询——这些能力超出了单独的预训练MLLM。在各种数据集上的大量实验表明,TruthLens在取证可解释性和检测准确性方面都树立了新的基准,并推广到已见和未见的操纵。通过统一高层次的场景理解和细粒度的区域定位,TruthLens提供了透明的DeepFake取证,弥合了文献中的一个关键差距。

🔬 方法详解

问题定义:现有DeepFake检测方法主要集中于二元分类,即判断图像或视频是真还是假。这些方法缺乏可解释性,无法指出图像中哪些区域被篡改以及篡改的原因。此外,它们通常难以泛化到未知的篡改类型,鲁棒性较差。

核心思路:TruthLens的核心思路是将多模态大型语言模型(MLLM)的全局语义理解能力与视觉模型的区域定位能力相结合,从而实现细粒度的DeepFake检测和可解释性推理。通过显式的跨模态自适应,使视觉模型能够利用MLLM提供的上下文信息,从而更准确地识别篡改区域。

技术框架:TruthLens的整体框架包含以下几个主要模块:1) 多模态大型语言模型(MLLM):用于提取图像的全局语义信息。2) 视觉模型:用于提取图像的区域特征。3) 跨模态自适应模块:用于将MLLM的全局语义信息与视觉模型的区域特征进行融合。4) 推理模块:基于融合后的特征,进行DeepFake检测和可解释性推理。

关键创新:TruthLens的关键创新在于其任务驱动的表示集成策略和显式的跨模态自适应机制。传统的DeepFake检测方法通常独立地处理视觉信息,而TruthLens通过MLLM引入了全局语义上下文,并利用跨模态自适应模块将全局信息与区域特征进行有效融合,从而提高了检测的准确性和可解释性。

关键设计:TruthLens的关键设计包括:1) 任务驱动的表示集成策略,根据DeepFake检测任务的特点,选择合适的MLLM和视觉模型,并设计有效的融合方式。2) 显式的跨模态自适应机制,通过训练视觉模型来适应MLLM提供的语义信息,从而提高特征融合的效率。3) 损失函数的设计,综合考虑了检测准确性和可解释性,鼓励模型生成更准确、更易于理解的推理结果。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

TruthLens在多个DeepFake数据集上进行了广泛的实验,结果表明其在检测准确性和可解释性方面均优于现有方法。例如,在某个数据集上,TruthLens的检测准确率比最先进的方法提高了5%以上,并且能够提供细粒度的篡改区域定位和文本推理,显著提升了DeepFake检测的透明度和可信度。

🎯 应用场景

TruthLens可应用于社交媒体平台的内容审核,帮助识别和标记DeepFake内容,防止虚假信息的传播。此外,它还可以用于新闻媒体的真实性验证,确保新闻报道的准确性。在安全领域,TruthLens可以用于身份验证和欺诈检测,防止不法分子利用DeepFake技术进行犯罪活动。该研究的未来影响在于提高公众对DeepFake技术的认知,并促进更安全、更可信的网络环境。

📄 摘要(原文)

Detecting DeepFakes has become a crucial research area as the widespread use of AI image generators enables the effortless creation of face-manipulated and fully synthetic content, while existing methods are often limited to binary classification (real vs. fake) and lack interpretability. To address these challenges, we propose TruthLens, a novel, unified, and highly generalizable framework that goes beyond traditional binary classification, providing detailed, textual reasoning for its predictions. Distinct from conventional methods, TruthLens performs MLLM grounding. TruthLens uses a task-driven representation integration strategy that unites global semantic context from a multimodal large language model (MLLM) with region-specific forensic cues through explicit cross-modal adaptation of a vision-only model. This enables nuanced, region-grounded reasoning for both face-manipulated and fully synthetic content, and supports fine-grained queries such as "Does the eyes/nose/mouth look real or fake?"- capabilities beyond pretrained MLLMs alone. Extensive experiments across diverse datasets demonstrate that TruthLens sets a new benchmark in both forensic interpretability and detection accuracy, generalizing to seen and unseen manipulations alike. By unifying high-level scene understanding with fine-grained region grounding, TruthLens delivers transparent DeepFake forensics, bridging a critical gap in the literature.