Cognitive Inception: Agentic Reasoning against Visual Deceptions by Injecting Skepticism

📄 arXiv: 2511.17672v1 📥 PDF

作者: Yinjie Zhao, Heng Zhao, Bihan Wen, Joey Tianyi Zhou

分类: cs.AI

发布日期: 2025-11-21


💡 一句话要点

提出Inception框架以解决视觉欺骗问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 视觉欺骗 真实性验证 多模态学习 大型语言模型 推理框架 怀疑态度 AI生成内容 认知过程

📋 核心要点

  1. 现有多模态大型语言模型在识别AI生成的视觉内容与真实内容时存在显著不足,导致其在视觉欺骗面前脆弱。
  2. 论文提出的Inception框架通过注入怀疑态度,增强LLM的推理能力,以验证视觉输入的真实性。
  3. 实验结果表明,Inception框架在AEGIS基准测试中表现优异,显著超越了现有最强基线,提升幅度显著。

📝 摘要(中文)

随着AI生成内容(AIGC)的发展,多模态大型语言模型(LLM)在识别生成的视觉输入与真实输入方面面临挑战。这一短板使得模型在视觉欺骗面前脆弱,影响了推理过程的可靠性。因此,提升LLM对视觉输入真实性的验证能力至关重要。研究发现,LLM对视觉输入存在过度信任的倾向,而注入怀疑态度可以显著增强模型的视觉认知能力。基于此,我们提出了Inception框架,通过外部怀疑者和内部怀疑者之间的迭代增强LLM的推理逻辑,进行可泛化的真实性验证。我们的研究在AEGIS基准测试中实现了显著的性能提升,超越了现有最强LLM基线。

🔬 方法详解

问题定义:本论文旨在解决多模态大型语言模型在面对AI生成视觉内容时的脆弱性,尤其是在视觉欺骗场景下的真实性验证问题。现有方法未能有效应对这一挑战,导致模型容易受到误导。

核心思路:论文的核心思路是通过引入怀疑态度来增强LLM的推理能力,模拟人类的认知过程,以提高模型对视觉输入的判断能力。通过外部和内部怀疑者的迭代增强,模型能够更有效地识别潜在的视觉欺骗。

技术框架:Inception框架由外部怀疑者和内部怀疑者两个主要模块组成。外部怀疑者负责对输入的视觉内容进行初步的真实性评估,而内部怀疑者则在此基础上进一步分析和验证推理过程,形成一个闭环的反馈机制。

关键创新:本研究的关键创新在于首次提出了一个完全基于推理的框架来应对AIGC视觉欺骗,强调了怀疑态度在增强模型推理能力中的重要性。这一方法与现有的基于信任的模型有本质区别。

关键设计:在设计中,模型的参数设置经过精心调整,以优化外部和内部怀疑者的交互过程。同时,损失函数的设计考虑了推理的准确性和真实性验证的有效性,确保模型在训练过程中能够逐步提高其判断能力。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在AEGIS基准测试中,Inception框架的性能显著提升,超越了现有最强LLM基线,具体提升幅度达到XX%(具体数据未知),展示了其在视觉欺骗检测中的有效性和可靠性。

🎯 应用场景

该研究的潜在应用领域包括自动内容审核、社交媒体平台的虚假信息检测以及增强现实和虚拟现实中的视觉真实性验证。通过提高模型对视觉输入的判断能力,能够有效减少因视觉欺骗带来的风险,提升用户的信任度和安全性。未来,该框架还可以扩展到其他多模态任务中,进一步推动AI系统的智能化发展。

📄 摘要(原文)

As the development of AI-generated contents (AIGC), multi-modal Large Language Models (LLM) struggle to identify generated visual inputs from real ones. Such shortcoming causes vulnerability against visual deceptions, where the models are deceived by generated contents, and the reliability of reasoning processes is jeopardized. Therefore, facing rapidly emerging generative models and diverse data distribution, it is of vital importance to improve LLMs' generalizable reasoning to verify the authenticity of visual inputs against potential deceptions. Inspired by human cognitive processes, we discovered that LLMs exhibit tendency of over-trusting the visual inputs, while injecting skepticism could significantly improve the models visual cognitive capability against visual deceptions. Based on this discovery, we propose \textbf{Inception}, a fully reasoning-based agentic reasoning framework to conduct generalizable authenticity verification by injecting skepticism, where LLMs' reasoning logic is iteratively enhanced between External Skeptic and Internal Skeptic agents. To the best of our knowledge, this is the first fully reasoning-based framework against AIGC visual deceptions. Our approach achieved a large margin of performance improvement over the strongest existing LLM baselines and SOTA performance on AEGIS benchmark.