Comparison Visual Instruction Tuning

📄 arXiv: 2406.09240v1 📥 PDF

作者: Wei Lin, Muhammad Jehanzeb Mirza, Sivan Doveh, Rogerio Feris, Raja Giryes, Sepp Hochreiter, Leonid Karlinsky

分类: cs.CV

发布日期: 2024-06-13

备注: Project page: https://wlin-at.github.io/cad_vi ; Huggingface dataset repo: https://huggingface.co/datasets/wlin21at/CaD-Inst


💡 一句话要点

提出CaD-VI框架与CaD-Inst数据集,提升LMMs在图像对比任务中的性能。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 视觉指令调优 大型多模态模型 图像对比 共性与差异 合成数据 指令跟随 视觉推理

📋 核心要点

  1. 现有大型多模态模型在图像共性与差异比较方面能力不足,限制了其高级视觉推理能力。
  2. 提出CaD-VI框架,通过两阶段方法生成高质量的合成视觉指令,用于训练LMMs。
  3. 构建了包含349K图像对的CaD-Inst数据集,实验证明该方法显著提升了LMMs在CaD任务上的性能。

📝 摘要(中文)

本文关注大型多模态模型(LMMs)在图像共性与差异(CaD)比较方面的能力。尽管CaD是人类视觉理解的基础,但现有LMMs对此关注不足。为此,我们提出了一个两阶段方法CaD-VI,用于收集合成视觉指令,并构建了一个包含349K图像对的指令跟随数据集CaD-Inst。实验表明,我们的方法显著提升了LMMs的CaD识别能力,在多个相关任务上将SOTA性能提升高达17.5%。此外,CaD-VI可以与现有的仅关注差异的指令数据集互补,通过有针对性的优化,提高其在CaD调优方面的有效性高达10%。我们还提出了一个包含7.5K开放式问答的评估基准,用于评估LMMs的CaD理解能力。

🔬 方法详解

问题定义:论文旨在解决大型多模态模型(LMMs)在图像共性与差异(CaD)比较任务中的不足。现有方法要么没有专门针对CaD进行训练,要么只关注差异而忽略了共性,导致LMMs在需要综合考虑共性和差异的视觉推理任务中表现不佳。

核心思路:论文的核心思路是构建一个高质量的CaD指令数据集,并利用该数据集对LMMs进行微调,从而提升其CaD理解和推理能力。通过合成数据生成的方式,可以高效地创建大量包含各种CaD场景的训练样本。

技术框架:CaD-VI框架包含两个主要阶段:1) 指令生成阶段:利用预训练的视觉模型和语言模型,自动生成包含CaD信息的指令。2) 数据过滤与增强阶段:对生成的指令数据进行过滤,去除低质量样本,并进行数据增强,提高数据的多样性和鲁棒性。最终生成CaD-Inst数据集,用于LMMs的微调。

关键创新:该论文的关键创新在于提出了一个自动化的CaD指令生成框架CaD-VI,能够高效地生成大规模、高质量的CaD指令数据。与手动标注数据相比,CaD-VI可以显著降低数据收集成本,并能够覆盖更广泛的CaD场景。此外,该方法强调了共性和差异的综合考虑,弥补了现有方法只关注差异的不足。

关键设计:CaD-VI框架中,指令生成阶段使用了预训练的视觉模型(例如CLIP)提取图像特征,并利用语言模型(例如GPT-3)根据图像特征生成指令。数据过滤阶段使用了多种策略,例如基于语言模型困惑度的过滤、基于视觉相似度的过滤等。数据增强阶段使用了多种方法,例如随机裁剪、颜色抖动、文本改写等。损失函数方面,使用了标准的指令跟随损失函数,例如交叉熵损失。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,使用CaD-Inst数据集微调后的LMMs在多个CaD相关任务上取得了显著的性能提升,最高提升达17.5%。此外,该方法还可以与现有的仅关注差异的指令数据集互补,通过有针对性的优化,提高其在CaD调优方面的有效性高达10%。

🎯 应用场景

该研究成果可应用于多种场景,例如图像检索、视觉问答、机器人导航、医学图像分析等。通过提升LMMs的CaD理解能力,可以使其更好地理解图像内容,从而在这些应用中实现更准确、更智能的决策。例如,在医学图像分析中,可以帮助医生识别病灶与正常组织的差异,提高诊断准确率。

📄 摘要(原文)

Comparing two images in terms of Commonalities and Differences (CaD) is a fundamental human capability that forms the basis of advanced visual reasoning and interpretation. It is essential for the generation of detailed and contextually relevant descriptions, performing comparative analysis, novelty detection, and making informed decisions based on visual data. However, surprisingly, little attention has been given to these fundamental concepts in the best current mimic of human visual intelligence - Large Multimodal Models (LMMs). We develop and contribute a new two-phase approach CaD-VI for collecting synthetic visual instructions, together with an instruction-following dataset CaD-Inst containing 349K image pairs with CaD instructions collected using CaD-VI. Our approach significantly improves the CaD spotting capabilities in LMMs, advancing the SOTA on a diverse set of related tasks by up to 17.5%. It is also complementary to existing difference-only instruction datasets, allowing automatic targeted refinement of those resources increasing their effectiveness for CaD tuning by up to 10%. Additionally, we propose an evaluation benchmark with 7.5K open-ended QAs to assess the CaD understanding abilities of LMMs.