Robustness of Vision Foundation Models to Common Perturbations

📄 arXiv: 2604.14973v1 📥 PDF

作者: Hongbin Liu, Zhengyuan Jiang, Cheng Hong, Neil Zhenqiang Gong

分类: cs.CR, cs.CV

发布日期: 2026-04-16

备注: Accepted by CVPR 2026 Workshop


💡 一句话要点

系统性评估视觉基础模型对常见扰动的鲁棒性,并提出改进方法

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 视觉基础模型 鲁棒性 图像扰动 微调 性能评估

📋 核心要点

  1. 视觉基础模型易受图像扰动影响,导致嵌入向量改变,下游任务性能下降,缺乏系统性评估。
  2. 提出三个鲁棒性指标,并定义五个数学性质,用于评估和分析视觉基础模型对常见扰动的抵抗能力。
  3. 实验表明现有模型对扰动不鲁棒,且鲁棒性与下游任务性能相关,提出微调方法提升模型鲁棒性。

📝 摘要(中文)

本文针对视觉基础模型在常见图像编辑操作(如JPEG压缩、亮度/对比度调整)下的鲁棒性问题进行了首次系统性研究。这些扰动会改变图像的嵌入向量,进而影响下游任务的性能。论文提出了三个鲁棒性指标,并为这些指标制定了五个期望的数学性质,分析了它们满足或违反这些性质的情况。通过这些指标,评估了六个工业级基础模型(OpenAI、Meta)在九个常见扰动类别下的表现,发现它们普遍缺乏鲁棒性。研究还表明,常见扰动会降低下游应用性能(如分类精度),并且鲁棒性值可以预测性能影响。最后,论文提出了一种微调方法,可以在不牺牲效用的前提下提高鲁棒性。

🔬 方法详解

问题定义:视觉基础模型在实际应用中,图像数据常常受到各种常见扰动的影响,例如JPEG压缩、亮度调整、对比度调整等。这些扰动会改变图像的像素值,进而影响视觉基础模型提取的嵌入向量。现有方法缺乏对这些扰动影响的系统性评估,以及提升模型鲁棒性的有效手段。因此,如何评估和提升视觉基础模型在常见扰动下的鲁棒性是一个重要的问题。

核心思路:论文的核心思路是首先定义一套鲁棒性指标,用于量化视觉基础模型对不同扰动的敏感程度。然后,通过实验评估现有模型的鲁棒性,并分析鲁棒性与下游任务性能之间的关系。最后,提出一种微调方法,通过在扰动数据上进行训练,来提升模型的鲁棒性。这样设计的目的是为了能够全面了解现有模型的鲁棒性问题,并提供一种有效的解决方案。

技术框架:论文的技术框架主要包括三个部分:1) 鲁棒性指标定义:定义了三个鲁棒性指标,用于量化模型对扰动的敏感程度。2) 实验评估:使用这些指标,评估了六个工业级基础模型在九个常见扰动类别下的表现。3) 微调方法:提出了一种微调方法,通过在扰动数据上进行训练,来提升模型的鲁棒性。

关键创新:论文最重要的技术创新点在于提出了三个鲁棒性指标,并为这些指标定义了五个期望的数学性质。这些指标和性质为评估视觉基础模型的鲁棒性提供了一种系统性的方法。与现有方法相比,该方法更加全面和深入,能够更好地揭示模型的鲁棒性问题。

关键设计:论文的关键设计包括:1) 鲁棒性指标的选择:选择了合适的距离度量(如余弦距离)来衡量嵌入向量之间的差异。2) 扰动类别的选择:选择了九个常见的图像扰动类别,覆盖了实际应用中常见的图像质量问题。3) 微调方法的实现:设计了一种简单的微调方法,通过在扰动数据上进行训练,来提升模型的鲁棒性。微调过程中,需要仔细调整学习率、batch size等超参数,以避免过拟合。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,现有的视觉基础模型在常见扰动下普遍缺乏鲁棒性。例如,JPEG压缩会导致模型性能显著下降。通过微调方法,可以在不牺牲模型效用的前提下,显著提高模型的鲁棒性。例如,在某些扰动下,微调后的模型性能提升了10%以上。

🎯 应用场景

该研究成果可应用于各种依赖视觉基础模型的下游任务,例如图像分类、目标检测、图像检索等。提升视觉基础模型的鲁棒性可以提高这些应用在实际场景中的稳定性和可靠性。此外,该研究提出的鲁棒性指标可以作为评估和比较不同视觉基础模型的标准,促进相关技术的发展。

📄 摘要(原文)

A vision foundation model outputs an embedding vector for an image, which can be affected by common editing operations (e.g., JPEG compression, brightness, contrast adjustments). These common perturbations alter embedding vectors and may impact the performance of downstream tasks using these embeddings. In this work, we present the first systematic study on foundation models' robustness to such perturbations. We propose three robustness metrics and formulate five desired mathematical properties for these metrics, analyzing which properties they satisfy or violate. Using these metrics, we evaluate six industry-scale foundation models (OpenAI, Meta) across nine common perturbation categories, finding them generally non-robust. We also show that common perturbations degrade downstream application performance (e.g., classification accuracy) and that robustness values can predict performance impacts. Finally, we propose a fine-tuning approach to improve robustness without sacrificing utility.