WeakSupCon: Weakly Supervised Contrastive Learning for Encoder Pre-training
作者: Bodong Zhang, Hamid Manoochehri, Xiwen Li, Beatrice S. Knudsen, Tolga Tasdizen
分类: cs.CV
发布日期: 2025-03-06 (更新: 2025-07-30)
备注: Medical Image Computing and Computer Assisted Intervention (MICCAI) 2025 workshop on Efficient Medical AI
💡 一句话要点
提出WeakSupCon,用于弱监督多示例学习中的编码器预训练。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 弱监督学习 对比学习 多示例学习 特征表示学习 组织病理学图像分析
📋 核心要点
- 传统MIL方法侧重于特征聚合,忽略了弱监督下的特征表示学习,通常依赖自监督或大型数据集预训练的编码器。
- WeakSupCon利用包级别标签,通过多任务学习和差异化对比损失,实现弱监督下的有效特征表示学习。
- 实验证明,WeakSupCon在有限计算资源下,显著提升了MIL分类性能,优于自监督方法。
📝 摘要(中文)
本文针对弱监督多示例学习(MIL)中仅提供包级别标签的挑战,提出了一种新的弱监督特征表示学习方法,称为弱监督对比学习(WeakSupCon)。该方法利用包级别标签,采用多任务学习,并为具有不同包标签的样本定义不同的对比损失。实验结果表明,与自监督方法相比,使用WeakSupCon生成的特征在有限的计算资源下,显著提高了三个数据集上的MIL分类性能。
🔬 方法详解
问题定义:在多示例学习(MIL)中,仅有包级别的标签可用,而每个包包含多个实例。现有的MIL方法通常采用固定的patch特征作为输入,侧重于特征聚合,忽略了在弱监督环境下学习有效的特征表示。这些特征通常由不利用弱标签的自监督学习方法或在其他大型数据集上预训练的基础编码器生成。因此,如何在弱监督MIL设置下学习有效的特征表示是一个关键问题。
核心思路:WeakSupCon的核心思路是利用包级别的弱标签来指导特征表示学习。通过对比学习,将属于同一包的实例拉近,将属于不同包的实例推远,从而学习到更具区分性的特征表示。这种方法能够有效地利用弱标签信息,提升特征表示的质量。
技术框架:WeakSupCon方法采用多任务学习框架。对于每个样本,首先通过编码器提取特征。然后,根据样本所属的包的标签,选择相应的对比损失函数。具体来说,对于具有相同包标签的样本,使用对比损失来拉近它们的特征表示;对于具有不同包标签的样本,使用对比损失来推远它们的特征表示。通过联合优化多个对比损失函数,可以学习到更具区分性的特征表示。
关键创新:WeakSupCon的关键创新在于它是一种弱监督的对比学习方法,能够有效地利用包级别的弱标签来指导特征表示学习。与传统的自监督学习方法相比,WeakSupCon能够学习到更具区分性的特征表示,从而提升MIL分类性能。与传统的MIL方法相比,WeakSupCon能够同时进行特征表示学习和分类,从而实现端到端的优化。
关键设计:WeakSupCon的关键设计包括:1) 使用多任务学习框架,为具有不同包标签的样本定义不同的对比损失函数;2) 使用对比损失函数来拉近属于同一包的实例,推远属于不同包的实例;3) 通过联合优化多个对比损失函数,学习到更具区分性的特征表示。具体的损失函数选择和参数设置需要根据具体的数据集和任务进行调整。
🖼️ 关键图片
📊 实验亮点
实验结果表明,在三个数据集上,WeakSupCon在有限的计算资源下,显著提高了MIL分类性能,优于自监督方法。这表明WeakSupCon能够有效地利用包级别的弱标签来指导特征表示学习,从而提升MIL分类性能。具体的性能提升幅度在论文中进行了详细的展示。
🎯 应用场景
WeakSupCon在组织病理学图像分析等领域具有广泛的应用前景,尤其是在WSI级别的标签可用,但patch级别的标签缺失的情况下。该方法可以用于疾病诊断、预后预测等任务,并有望减少对人工标注的依赖,降低标注成本,加速相关研究的进展。
📄 摘要(原文)
Weakly supervised multiple instance learning (MIL) is a challenging task given that only bag-level labels are provided, while each bag typically contains multiple instances. This topic has been extensively studied in histopathological image analysis, where labels are usually available only at the whole slide image (WSI) level, while each WSI could be divided into thousands of small image patches for training. The dominant MIL approaches focus on feature aggregation and take fixed patch features as inputs. However, weakly supervised feature representation learning in MIL settings is always neglected. Those features used to be generated by self-supervised learning methods that do not utilize weak labels, or by foundation encoders pre-trained on other large datasets. In this paper, we propose a novel weakly supervised feature representation learning method called Weakly Supervised Contrastive Learning (WeakSupCon) that utilizes bag-level labels. In our method, we employ multi-task learning and define distinct contrastive losses for samples with different bag labels. Our experiments demonstrate that the features generated using WeakSupCon with limited computing resources significantly enhance MIL classification performance compared to self-supervised approaches across three datasets. Our WeakSupCon code is available at github.com/BzhangURU/Paper_WeakSupCon