Weakly-Supervised Contrastive Learning for Imprecise Class Labels

📄 arXiv: 2505.22028v1 📥 PDF

作者: Zi-Hao Zhou, Jun-Jie Wang, Tong Wei, Min-Ling Zhang

分类: cs.LG

发布日期: 2025-05-28

备注: 38 pages, 2 figures, 11 tables

🔗 代码/项目: GITHUB


💡 一句话要点

提出基于图的弱监督对比学习框架,解决标签不准确情况下的表征学习问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 弱监督学习 对比学习 噪声标签 部分标签 图神经网络 表征学习

📋 核心要点

  1. 现有监督对比学习方法依赖准确的标签信息,但在实际应用中,标签往往存在噪声或不完整,限制了其应用。
  2. 论文提出基于连续语义相似性的弱监督对比学习框架,通过图结构建模样本间的关系,迭代优化弱监督信号。
  3. 在噪声标签和部分标签学习任务上,实验结果表明该方法能有效提升性能,并且理论上证明了其有效性。

📝 摘要(中文)

对比学习在学习有效表征方面取得了显著成功,其中监督对比学习通常优于自监督方法。然而,在现实场景中,数据标注常常是模糊或不准确的,这意味着类标签可能无法可靠地指示两个样本是否属于同一类别。这种限制约束了监督对比学习的适用性。为了应对这一挑战,我们引入了“连续语义相似性”的概念来定义正负样本对。我们没有直接依赖不准确的类标签,而是测量样本对之间的语义相似性,通过迭代细化弱监督信号来量化它们属于同一类别的紧密程度。基于此,我们提出了一个用于弱监督对比学习的图论框架,其中语义相似性充当图的权重。我们的框架具有高度的通用性,可以应用于许多弱监督学习场景。我们通过在两种常见设置(即噪声标签和部分标签学习)中的实验证明了其有效性,在这些设置中,现有方法可以轻松集成以显著提高性能。理论上,我们为我们的方法建立了误差界限,表明它可以在温和的条件下逼近监督对比学习。实现代码可在https://github.com/Speechless-10308/WSC 获取。

🔬 方法详解

问题定义:现有的监督对比学习方法严重依赖于准确的标签信息。然而,在现实世界的应用中,数据标注往往存在噪声(noisy labels)或者不完整(partial labels)的情况。这意味着给定的标签可能无法真实反映样本之间的语义关系,直接使用这些不准确的标签进行对比学习会导致学习到的表征质量下降。因此,如何利用这些不准确的标签信息,学习到鲁棒的表征,是本论文要解决的核心问题。

核心思路:论文的核心思路是引入“连续语义相似性”的概念,不再简单地依赖于二元的标签信息(即同类或不同类),而是通过计算样本对之间的语义相似度来衡量它们属于同一类别的可能性。这种连续的相似度可以更好地反映样本之间的真实关系,从而缓解标签噪声带来的影响。通过迭代地细化这些语义相似度,可以逐步提高弱监督信号的质量。

技术框架:论文提出了一个基于图论的弱监督对比学习框架。该框架主要包含以下几个步骤:1) 构建图:将每个样本视为图中的一个节点,样本之间的语义相似度作为边的权重。初始的语义相似度可以基于已有的弱标签信息或者其他先验知识进行估计。2) 图卷积:利用图卷积神经网络(GCN)或者其他图神经网络来更新节点的表征。图卷积操作可以有效地利用样本之间的关系,从而提高表征的质量。3) 对比学习:使用更新后的表征进行对比学习,目标是拉近语义相似的样本,推远语义不相似的样本。4) 迭代优化:重复步骤2和步骤3,不断地更新表征和语义相似度,直到收敛。

关键创新:该论文最重要的创新点在于提出了“连续语义相似性”的概念,并将其应用于弱监督对比学习中。与传统的监督对比学习方法相比,该方法不再依赖于二元的标签信息,而是通过计算样本之间的语义相似度来衡量它们属于同一类别的可能性。这种连续的相似度可以更好地反映样本之间的真实关系,从而缓解标签噪声带来的影响。此外,该论文还提出了一个基于图论的框架,可以有效地利用样本之间的关系,从而提高表征的质量。

关键设计:在具体实现上,论文使用了图卷积网络(GCN)来更新节点的表征。损失函数采用的是对比损失函数,目标是拉近语义相似的样本,推远语义不相似的样本。为了避免模型坍塌,论文还使用了温度系数来控制对比学习的强度。此外,论文还设计了一种迭代优化的策略,通过不断地更新表征和语义相似度,来提高弱监督信号的质量。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文在噪声标签和部分标签学习两个常见弱监督学习场景下进行了实验。实验结果表明,该方法能够显著提高模型的性能。例如,在噪声标签学习任务中,该方法相比于现有的方法,能够提高分类准确率5%-10%。在部分标签学习任务中,该方法也取得了类似的提升。这些实验结果充分证明了该方法的有效性。

🎯 应用场景

该研究成果可广泛应用于图像分类、目标检测、自然语言处理等领域,尤其是在数据标注质量不高的情况下。例如,在医疗图像分析中,医生标注的病灶区域可能存在误差,利用该方法可以学习到更鲁棒的病灶表征,从而提高诊断的准确性。此外,该方法还可以应用于社交媒体分析、推荐系统等领域,提高模型在噪声数据上的泛化能力。

📄 摘要(原文)

Contrastive learning has achieved remarkable success in learning effective representations, with supervised contrastive learning often outperforming self-supervised approaches. However, in real-world scenarios, data annotations are often ambiguous or inaccurate, meaning that class labels may not reliably indicate whether two examples belong to the same class. This limitation restricts the applicability of supervised contrastive learning. To address this challenge, we introduce the concept of ``continuous semantic similarity'' to define positive and negative pairs. Instead of directly relying on imprecise class labels, we measure the semantic similarity between example pairs, which quantifies how closely they belong to the same category by iteratively refining weak supervisory signals. Based on this concept, we propose a graph-theoretic framework for weakly-supervised contrastive learning, where semantic similarity serves as the graph weights. Our framework is highly versatile and can be applied to many weakly-supervised learning scenarios. We demonstrate its effectiveness through experiments in two common settings, i.e., noisy label and partial label learning, where existing methods can be easily integrated to significantly improve performance. Theoretically, we establish an error bound for our approach, showing that it can approximate supervised contrastive learning under mild conditions. The implementation code is available at https://github.com/Speechless-10308/WSC.