Large Multimodal Models as General In-Context Classifiers

📄 arXiv: 2602.23229 📥 PDF

作者: Marco Garosi, Matteo Farina, Alessandro Conti, Massimiliano Mancini, Elisa Ricci

分类: cs.CV

发布日期: 2026-02-28


💡 一句话要点

提出CIRCLE方法,提升大模型在开放世界分类中的上下文学习能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型多模态模型 上下文学习 开放世界分类 伪标签 迭代优化

📋 核心要点

  1. 现有方法在开放世界分类中,依赖于专门的视觉-语言模型,缺乏灵活性和泛化能力。
  2. 论文提出CIRCLE方法,通过迭代地细化上下文示例的伪标签,提升LMM在开放世界分类中的性能。
  3. 实验表明,CIRCLE方法在开放世界分类任务中超越了VLM,验证了LMM作为统一分类器的潜力。

📝 摘要(中文)

本文研究了用于分类任务的大型多模态模型(LMM)。以往研究认为类CLIP的对比视觉-语言模型(VLM)在零样本分类中表现出色,而LMM更适合复杂任务。本文指出,这种观点忽略了LMM的一个重要能力:上下文学习。通过在多个数据集上对最先进的LMM进行封闭世界分类的基准测试,发现LMM在少量上下文示例的情况下,可以匹配甚至超过带有基于缓存的适配器的对比VLM。进一步将分析扩展到开放世界环境,LMM的生成特性使其更适合该任务。然而,当上下文信息不完善时,LMM会遇到困难。为此,本文提出CIRCLE,一种无需训练的方法,为上下文示例分配伪标签,并通过可用的上下文迭代地改进它们。大量实验表明,CIRCLE为开放世界分类建立了一个强大的基线,超越了VLM,突出了LMM作为统一分类器的潜力,以及作为专用模型的灵活替代方案。

🔬 方法详解

问题定义:论文旨在解决开放世界分类问题,即模型需要识别训练集中未见过的类别。现有方法,如依赖CLIP的VLM,虽然在零样本分类上表现良好,但在开放世界场景下,由于缺乏上下文学习能力和对噪声上下文的鲁棒性,性能受到限制。

核心思路:论文的核心思路是利用LMM的上下文学习能力,通过提供少量的上下文示例来指导分类。为了解决开放世界中上下文信息可能不完善的问题,提出了CIRCLE方法,迭代地优化上下文示例的伪标签,从而提高分类的准确性。

技术框架:CIRCLE方法是一个训练无关的框架,主要包含以下步骤:1) 初始化上下文示例:从训练集中选择少量样本作为上下文示例。2) 伪标签分配:使用LMM对上下文示例进行分类,生成伪标签。3) 上下文增强:利用生成的伪标签,增强上下文信息。4) 迭代优化:重复步骤2和3,迭代地优化伪标签,直到收敛或达到最大迭代次数。

关键创新:CIRCLE的关键创新在于其迭代的伪标签优化机制。与传统的上下文学习方法不同,CIRCLE能够自动地纠正不准确的上下文信息,从而提高LMM在开放世界分类中的鲁棒性。

关键设计:CIRCLE方法的关键设计包括:1) 上下文示例的选择策略:论文研究了不同的上下文示例选择策略,如随机选择和基于相似度的选择。2) 伪标签生成方法:使用LMM的生成能力,根据上下文信息生成伪标签。3) 迭代停止条件:设置最大迭代次数或收敛阈值,以控制迭代过程。

📊 实验亮点

实验结果表明,CIRCLE方法在多个开放世界分类数据集上取得了显著的性能提升,超越了传统的VLM方法。例如,在ImageNet-O数据集上,CIRCLE方法将LMM的分类准确率提高了10%以上,证明了其在处理噪声上下文信息方面的有效性。

🎯 应用场景

该研究成果可应用于图像检索、目标识别、内容审核等领域,尤其是在需要处理未知类别或动态变化环境的场景下。CIRCLE方法能够提升LMM的泛化能力和适应性,降低对大量标注数据的依赖,具有重要的实际应用价值和潜力。

📄 摘要(原文)

Which multimodal model should we use for classification? Previous studies suggest that the answer lies in CLIP-like contrastive Vision-Language Models (VLMs), due to their remarkable performance in zero-shot classification. In contrast, Large Multimodal Models (LMM) are more suitable for complex tasks. In this work, we argue that this answer overlooks an important capability of LMMs: in-context learning. We benchmark state-of-the-art LMMs on diverse datasets for closed-world classification and find that, although their zero-shot performance is lower than CLIP's, LMMs with a few in-context examples can match or even surpass contrastive VLMs with cache-based adapters, their "in-context" equivalent. We extend this analysis to the open-world setting, where the generative nature of LMMs makes them more suitable for the task. In this challenging scenario, LMMs struggle whenever provided with imperfect context information. To address this issue, we propose CIRCLE, a simple training-free method that assigns pseudo-labels to in-context examples, iteratively refining them with the available context itself. Through extensive experiments, we show that CIRCLE establishes a robust baseline for open-world classification, surpassing VLM counterparts and highlighting the potential of LMMs to serve as unified classifiers, and a flexible alternative to specialized models.