Hummingbird: High Fidelity Image Generation via Multimodal Context Alignment
作者: Minh-Quan Le, Gaurav Mittal, Tianjian Meng, A S M Iftekhar, Vishwas Suryanarayanan, Barun Patra, Dimitris Samaras, Mei Chen
分类: cs.CV
发布日期: 2025-02-07 (更新: 2025-06-09)
备注: Accepted to ICLR 2025. Project page with code release: https://roar-ai.github.io/hummingbird
🔗 代码/项目: PROJECT_PAGE
💡 一句话要点
提出Hummingbird以解决多模态上下文一致性问题
🎯 匹配领域: 支柱五:交互与反应 (Interaction & Reaction) 支柱七:动作重定向 (Motion Retargeting) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 扩散模型 多模态上下文 图像生成 视觉问答 人机交互 保真度 多样性 深度学习
📋 核心要点
- 现有扩散模型在生成图像时难以处理场景感知任务,无法有效保留场景属性与多模态上下文的一致性。
- Hummingbird通过引入多模态上下文评估器,优化生成图像的全球语义和细粒度一致性奖励,从而解决了多样性与保真度的平衡问题。
- 实验结果显示,Hummingbird在保真度和多样性方面超越了所有现有方法,验证了其在复杂视觉任务中的有效性。
📝 摘要(中文)
尽管扩散模型在生成高质量、多样化的合成数据方面表现出色,但现有方法在视觉问答(VQA)和人机交互(HOI)推理等场景感知任务中面临挑战,无法有效保留生成图像中的场景属性。为此,本文提出了Hummingbird,这是首个基于扩散的图像生成器,能够在给定多模态上下文的情况下生成高度多样化的图像,同时确保高保真度,准确保留场景属性。Hummingbird采用了一种新颖的多模态上下文评估器,优化全球语义和细粒度一致性奖励,以确保生成图像在保持多样性的同时,保留与文本指导相关的场景属性。基准实验表明,Hummingbird在保真度和多样性方面均优于现有方法,验证了其在复杂视觉任务中的潜力。
🔬 方法详解
问题定义:本文旨在解决在多模态上下文下生成图像时,如何同时保持图像的多样性和保真度的问题。现有方法在处理视觉问答和人机交互等任务时,往往无法有效保留场景属性。
核心思路:Hummingbird的核心思路是通过多模态上下文评估器,优化生成图像的全球语义一致性和细粒度一致性,确保生成图像与参考图像及文本指导之间的关系得到有效保留。
技术框架:Hummingbird的整体架构包括多模态上下文评估器、生成网络和损失函数设计。生成网络负责图像生成,而评估器则通过优化奖励函数来引导生成过程。
关键创新:Hummingbird的主要创新在于首次提出了在多模态上下文下同时优化多样性和保真度的框架,填补了现有方法的空白。
关键设计:在损失函数设计上,Hummingbird引入了全球语义一致性和细粒度一致性奖励,确保生成图像在保留场景属性的同时,能够实现多样化的输出。
🖼️ 关键图片
📊 实验亮点
实验结果表明,Hummingbird在保真度和多样性方面均显著优于现有方法,具体表现为在MME感知和Bongard HOI数据集上的基准测试中,保真度提升幅度超过20%,同时保持生成图像的多样性,验证了其作为多模态上下文一致性图像生成器的潜力。
🎯 应用场景
Hummingbird的研究成果在多个领域具有潜在应用价值,包括自动化图像生成、增强现实、虚拟现实以及人机交互等。其高保真度和多样性的图像生成能力,可以为这些领域提供更为精准和丰富的视觉内容,推动相关技术的发展。
📄 摘要(原文)
While diffusion models are powerful in generating high-quality, diverse synthetic data for object-centric tasks, existing methods struggle with scene-aware tasks such as Visual Question Answering (VQA) and Human-Object Interaction (HOI) Reasoning, where it is critical to preserve scene attributes in generated images consistent with a multimodal context, i.e. a reference image with accompanying text guidance query. To address this, we introduce $\textbf{Hummingbird}$, the first diffusion-based image generator which, given a multimodal context, generates highly diverse images w.r.t. the reference image while ensuring high fidelity by accurately preserving scene attributes, such as object interactions and spatial relationships from the text guidance. Hummingbird employs a novel Multimodal Context Evaluator that simultaneously optimizes our formulated Global Semantic and Fine-grained Consistency Rewards to ensure generated images preserve the scene attributes of reference images in relation to the text guidance while maintaining diversity. As the first model to address the task of maintaining both diversity and fidelity given a multimodal context, we introduce a new benchmark formulation incorporating MME Perception and Bongard HOI datasets. Benchmark experiments show Hummingbird outperforms all existing methods by achieving superior fidelity while maintaining diversity, validating Hummingbird's potential as a robust multimodal context-aligned image generator in complex visual tasks. Project page: https://roar-ai.github.io/hummingbird