Salvaging the Overlooked: Leveraging Class-Aware Contrastive Learning for Multi-Class Anomaly Detection

📄 arXiv: 2412.04769v2 📥 PDF

作者: Lei Fan, Junjie Huang, Donglin Di, Anyang Su, Tianyou Song, Maurice Pagnucco, Yang Song

分类: cs.CV

发布日期: 2024-12-06 (更新: 2025-07-17)

备注: Accepted by ICCV2025, https://lgc-ad.github.io/


💡 一句话要点

提出类感知对比学习,解决多类异常检测中的类间混淆问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 异常检测 多类分类 对比学习 类感知学习 重构网络

📋 核心要点

  1. 多类异常检测中,直接应用单类异常检测方法会导致类间混淆,降低重构性能。
  2. 提出类感知对比学习(CCL),利用类别信息指导特征学习,减少类间混淆。
  3. 实验表明,CCL在多个数据集上显著提升了多类异常检测的性能,优于现有方法。

📝 摘要(中文)

针对异常检测(AD),早期方法通常为每个类别训练单独的模型,虽然性能高,但在可扩展性和资源管理方面存在挑战。最近的研究转向训练能够处理多个类别的单一模型。然而,直接将早期AD方法扩展到多类设置通常会导致性能下降。本文研究了基于重构的方法中观察到的这种性能下降,确定了关键问题:类间混淆。当在多类场景中训练的模型错误地将一个类别的样本重构为另一个类别的样本时,就会出现这种混淆,从而加剧重构误差。为此,我们提出了一种简单而有效的修改,称为类感知对比学习(CCL)。通过显式地利用原始对象类别信息(例如,地毯或木材)作为监督信号,我们引入局部CL来细化多尺度密集特征,并引入全局CL来获得更紧凑的正常模式特征表示,从而有效地使模型适应多类设置。在五个数据集上的实验验证了我们方法的有效性,证明了与最先进方法相比的显著改进和卓越性能。值得注意的是,消融研究表明伪类标签可以实现相当的性能。

🔬 方法详解

问题定义:论文旨在解决多类异常检测中,由于类间混淆导致的性能下降问题。现有方法在处理多个类别时,容易将一个类别的正常样本错误地重构为另一个类别,从而增加了重构误差,降低了异常检测的准确性。

核心思路:论文的核心思路是利用类别信息来指导模型的学习,减少类间混淆。通过引入类感知对比学习,模型能够更好地学习到每个类别的独特特征表示,从而区分不同的类别,提高重构的准确性。

技术框架:整体框架包含一个重构网络(例如自编码器)和一个类感知对比学习模块。重构网络负责学习正常样本的特征表示并进行重构。类感知对比学习模块则利用类别信息,通过局部和全局对比学习,进一步优化特征表示,减少类间混淆。

关键创新:最重要的技术创新点是类感知对比学习(CCL)。CCL通过显式地利用类别信息作为监督信号,指导模型学习更具区分性的特征表示。与传统的对比学习方法不同,CCL针对多类异常检测问题,设计了局部和全局对比学习策略,从而更好地适应多类场景。

关键设计:CCL包含局部对比学习和全局对比学习两个部分。局部对比学习用于细化多尺度密集特征,增强局部特征的区分性。全局对比学习用于获得更紧凑的正常模式特征表示,减少全局特征的混淆。损失函数包括重构损失和对比学习损失,通过联合优化,提高模型的性能。论文还发现,使用伪类标签也能取得相近的效果,这为实际应用提供了灵活性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,提出的类感知对比学习方法在五个数据集上均取得了显著的性能提升,优于现有的最先进方法。消融实验验证了局部和全局对比学习的有效性。值得注意的是,使用伪类标签也能达到与真实标签相近的性能,这为实际应用提供了便利。

🎯 应用场景

该研究成果可应用于工业质检、医疗诊断、视频监控等领域。例如,在工业质检中,可以检测生产线上不同类型产品的缺陷;在医疗诊断中,可以辅助医生识别不同类型的疾病;在视频监控中,可以检测异常行为。该方法能够有效提高多类异常检测的准确性和效率,具有重要的实际应用价值和广阔的应用前景。

📄 摘要(原文)

For anomaly detection (AD), early approaches often train separate models for individual classes, yielding high performance but posing challenges in scalability and resource management. Recent efforts have shifted toward training a single model capable of handling multiple classes. However, directly extending early AD methods to multi-class settings often results in degraded performance. In this paper, we investigate this performance degradation observed in reconstruction-based methods, identifying the key issue: inter-class confusion. This confusion emerges when a model trained in multi-class scenarios incorrectly reconstructs samples from one class as those of another, thereby exacerbating reconstruction errors. To this end, we propose a simple yet effective modification, called class-aware contrastive learning (CCL). By explicitly leveraging raw object category information (\eg carpet or wood) as supervised signals, we introduce local CL to refine multiscale dense features, and global CL to obtain more compact feature representations of normal patterns, thereby effectively adapting the models to multi-class settings. Experiments across five datasets validate the effectiveness of our approach, demonstrating significant improvements and superior performance compared to state-of-the-art methods. Notably, ablation studies indicate that pseudo-class labels can achieve comparable performance.