Tell me why: Visual foundation models as self-explainable classifiers
作者: Hugues Turbé, Mina Bjelogrlic, Gianmarco Mengaldo, Christian Lovis
分类: cs.CV, cs.AI, cs.LG
发布日期: 2025-02-26
🔗 代码/项目: GITHUB
💡 一句话要点
提出ProtoFM:结合视觉基础模型与原型架构的自解释分类器
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 视觉基础模型 自解释模型 原型学习 可解释性 分类 深度学习 计算机视觉
📋 核心要点
- 现有自解释模型(SEM)在视觉分类任务中缺乏忠实性,其解释与模型的实际决策过程不符。
- ProtoFM通过结合视觉基础模型(VFMs)与原型架构,并设计专门的训练目标,提升模型的可解释性。
- 实验结果表明,ProtoFM在保持竞争力的分类性能的同时,显著提升了模型的可解释性指标。
📝 摘要(中文)
视觉基础模型(VFMs)因其卓越的性能而日益普及。然而,对于关键应用而言,可解释性至关重要。自解释模型(SEM)旨在提供可解释的分类器,将预测分解为可解释概念的加权和。尽管前景广阔,但最近的研究表明,这些解释通常缺乏忠实性。本文将VFMs与一种新颖的原型架构和专门的训练目标相结合。通过仅在冻结的VFMs之上训练一个轻量级头部(约100万个参数),我们的方法(ProtoFM)提供了一种高效且可解释的解决方案。评估表明,我们的方法在实现具有竞争力的分类性能的同时,在文献中衍生出的一系列可解释性指标上优于现有模型。
🔬 方法详解
问题定义:论文旨在解决视觉分类任务中,现有自解释模型(SEM)解释性不足的问题。具体来说,现有SEM生成的解释往往与模型的实际决策过程不一致,缺乏忠实性。这使得用户难以信任模型的预测结果,限制了SEM在关键领域的应用。
核心思路:论文的核心思路是将视觉基础模型(VFMs)与原型架构相结合,并设计专门的训练目标,以提高模型的可解释性。通过学习一组具有代表性的原型,并将输入图像与这些原型的相似度作为分类的依据,模型能够提供更易于理解和信任的解释。
技术框架:ProtoFM的整体架构包括三个主要部分:1) 冻结的视觉基础模型(VFM),用于提取输入图像的特征;2) 原型层,用于学习一组具有代表性的原型向量;3) 分类层,用于基于输入图像与原型之间的相似度进行分类。训练过程中,VFM的参数保持不变,只训练原型层和分类层。
关键创新:ProtoFM的关键创新在于将VFMs与原型架构相结合,并设计了专门的训练目标。与传统的SEM相比,ProtoFM利用VFMs强大的特征提取能力,能够学习到更具代表性的原型。此外,专门的训练目标鼓励模型学习具有高可解释性的原型,并提高解释的忠实性。
关键设计:ProtoFM的关键设计包括:1) 使用余弦相似度作为输入图像与原型之间的相似度度量;2) 设计了原型损失函数,鼓励原型向量的多样性和代表性;3) 使用交叉熵损失函数作为分类损失函数;4) 通过调整原型数量和训练权重,平衡分类性能和可解释性。
🖼️ 关键图片
📊 实验亮点
实验结果表明,ProtoFM在多个数据集上取得了具有竞争力的分类性能,同时在可解释性指标上优于现有模型。例如,在CUB数据集上,ProtoFM在保持分类准确率的同时,显著提高了解释的忠实性,证明了其在可解释性方面的优势。
🎯 应用场景
ProtoFM可应用于需要高可解释性的视觉分类任务中,例如医疗图像诊断、自动驾驶和安全监控。在这些领域,理解模型做出决策的原因至关重要,ProtoFM能够提供更易于理解和信任的解释,帮助用户更好地理解和使用模型。
📄 摘要(原文)
Visual foundation models (VFMs) have become increasingly popular due to their state-of-the-art performance. However, interpretability remains crucial for critical applications. In this sense, self-explainable models (SEM) aim to provide interpretable classifiers that decompose predictions into a weighted sum of interpretable concepts. Despite their promise, recent studies have shown that these explanations often lack faithfulness. In this work, we combine VFMs with a novel prototypical architecture and specialized training objectives. By training only a lightweight head (approximately 1M parameters) on top of frozen VFMs, our approach (ProtoFM) offers an efficient and interpretable solution. Evaluations demonstrate that our approach achieves competitive classification performance while outperforming existing models across a range of interpretability metrics derived from the literature. Code is available at https://github.com/hturbe/proto-fm.