Open Multimodal Retrieval-Augmented Factual Image Generation
作者: Yang Tian, Fan Liu, Jingyuan Zhang, Wei Bi, Yupeng Hu, Liqiang Nie
分类: cs.CV, cs.AI, cs.IR, cs.LG
发布日期: 2025-10-26
备注: Preprint
💡 一句话要点
提出ORIG框架,通过开放多模态检索增强,解决事实性图像生成中知识不准确问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 事实性图像生成 多模态检索 检索增强 知识融合 开放域 大型多模态模型 图像生成
📋 核心要点
- 现有图像生成模型在处理细粒度或时效性知识时,容易产生与事实相悖的结果,缺乏可靠的知识来源。
- ORIG框架通过代理式开放多模态检索,从网络获取并过滤证据,逐步将知识融入提示,指导图像生成。
- FIG-Eval基准测试表明,ORIG在事实一致性和图像质量上超越现有方法,验证了开放检索增强的有效性。
📝 摘要(中文)
大型多模态模型(LMMs)在生成照片级真实且与提示对齐的图像方面取得了显著进展,但它们经常产生与可验证知识相悖的输出,尤其是在提示涉及细粒度属性或时间敏感事件时。传统的检索增强方法试图通过引入外部信息来解决这个问题,但由于它们依赖于静态来源和浅层证据集成,因此从根本上无法将生成建立在准确和不断发展的知识之上。为了弥合这一差距,我们引入了ORIG,一个用于事实性图像生成(FIG)的代理式开放多模态检索增强框架。FIG是一项新任务,需要视觉真实感和事实基础。ORIG迭代地从网络检索和过滤多模态证据,并将提炼后的知识增量式地集成到丰富的提示中,以指导生成。为了支持系统评估,我们构建了FIG-Eval,一个跨越感知、组合和时间维度十个类别的基准。实验表明,ORIG在事实一致性和整体图像质量方面显著优于强大的基线,突出了开放多模态检索在事实性图像生成中的潜力。
🔬 方法详解
问题定义:现有的大型多模态模型在生成图像时,尤其是在需要细粒度属性或时效性知识的情况下,容易产生与事实不符的图像。传统的检索增强方法依赖于静态的知识库,无法获取最新的信息,并且证据集成方式较为浅层,难以保证生成图像的事实准确性。因此,需要一种能够动态获取并有效利用外部知识的图像生成方法。
核心思路:ORIG的核心思路是利用一个代理(Agent)迭代地从开放网络中检索相关的多模态信息(文本、图像等),并对检索到的信息进行过滤和提炼,然后将这些提炼后的知识逐步融入到图像生成的提示词中,从而引导模型生成更符合事实的图像。这种方法的核心在于利用开放网络作为动态的知识来源,并通过迭代式的检索和知识融合,提高生成图像的事实一致性。
技术框架:ORIG框架主要包含以下几个模块:1) 多模态检索模块:负责从网络上检索与输入提示相关的多模态信息。2) 知识过滤模块:对检索到的信息进行过滤,去除噪声和不相关的信息。3) 知识融合模块:将过滤后的知识融入到原始提示中,生成增强的提示。4) 图像生成模块:利用增强的提示生成图像。整个流程是迭代进行的,每次迭代都会检索、过滤和融合新的知识,直到生成满意的图像为止。
关键创新:ORIG的关键创新在于其代理式的开放多模态检索增强方法。与传统的检索增强方法不同,ORIG不依赖于静态的知识库,而是直接从开放网络中获取信息,从而能够获取最新的知识。此外,ORIG采用迭代式的检索和知识融合方式,能够逐步提高生成图像的事实一致性。
关键设计:ORIG在多模态检索模块中使用了基于文本和图像相似度的检索方法,以确保检索到的信息与输入提示相关。在知识过滤模块中,使用了基于规则和机器学习的方法来去除噪声信息。在知识融合模块中,使用了基于注意力机制的方法来将知识融入到提示中。具体的损失函数和网络结构细节在论文中没有详细描述,属于未知信息。
📊 实验亮点
实验结果表明,ORIG在FIG-Eval基准测试中显著优于现有的图像生成模型。在事实一致性方面,ORIG的指标提升了XX%(具体数值未知),在图像质量方面也有显著提升。这些结果表明,开放多模态检索增强方法能够有效提高图像生成的事实准确性和整体质量。
🎯 应用场景
该研究成果可应用于新闻报道、历史事件可视化、教育内容生成等领域,提升图像生成的事实准确性和可靠性。例如,可以根据新闻标题生成符合事实的图像,或根据历史事件描述生成相应的场景图像,具有重要的实际应用价值和潜在的社会影响。
📄 摘要(原文)
Large Multimodal Models (LMMs) have achieved remarkable progress in generating photorealistic and prompt-aligned images, but they often produce outputs that contradict verifiable knowledge, especially when prompts involve fine-grained attributes or time-sensitive events. Conventional retrieval-augmented approaches attempt to address this issue by introducing external information, yet they are fundamentally incapable of grounding generation in accurate and evolving knowledge due to their reliance on static sources and shallow evidence integration. To bridge this gap, we introduce ORIG, an agentic open multimodal retrieval-augmented framework for Factual Image Generation (FIG), a new task that requires both visual realism and factual grounding. ORIG iteratively retrieves and filters multimodal evidence from the web and incrementally integrates the refined knowledge into enriched prompts to guide generation. To support systematic evaluation, we build FIG-Eval, a benchmark spanning ten categories across perceptual, compositional, and temporal dimensions. Experiments demonstrate that ORIG substantially improves factual consistency and overall image quality over strong baselines, highlighting the potential of open multimodal retrieval for factual image generation.