Improving Semi-Supervised Contrastive Learning via Entropy-Weighted Confidence Integration of Anchor-Positive Pairs

📄 arXiv: 2601.04555v1 📥 PDF

作者: Shogo Nakayama, Masahiro Okuda

分类: cs.LG, cs.AI

发布日期: 2026-01-08


💡 一句话要点

提出基于熵加权置信度集成的半监督对比学习方法,提升低标签数据下的分类精度。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 半监督学习 对比学习 熵加权 置信度估计 自适应加权

📋 核心要点

  1. 传统半监督对比学习方法依赖于硬阈值筛选伪标签,忽略了大量置信度较低但仍包含信息的样本。
  2. 该论文提出一种基于熵的置信度估计方法,对所有样本进行自适应加权,从而更有效地利用未标记数据。
  3. 实验结果表明,该方法在低标签数据下提升了分类精度,并实现了更稳定的学习性能。

📝 摘要(中文)

本文提出了一种新的损失函数,用于改进半监督对比学习。传统方法仅为预测概率最高的类别超过预定义阈值的样本分配伪标签,然后使用这些选定的样本执行监督对比学习。本文提出的方法基于预测概率分布的熵来估计每个样本的置信度,并应用基于置信度的自适应加权。这种方法使得即使是先前被排除在训练之外的样本也能被分配伪标签,并促进了以更合理的方式考虑anchor和positive样本置信度的对比学习。实验结果表明,所提出的方法提高了分类精度,即使在低标签条件下也能实现更稳定的学习性能。

🔬 方法详解

问题定义:半监督对比学习旨在利用少量有标签数据和大量无标签数据来提升模型性能。现有方法通常设定一个置信度阈值,仅选择预测概率超过该阈值的无标签样本进行伪标签分配和后续的对比学习。这种硬阈值方法忽略了大量置信度较低但可能包含有用信息的样本,导致信息利用率不高,尤其是在低标签数据场景下表现不佳。

核心思路:本文的核心思路是利用预测概率分布的熵来估计每个样本的置信度。熵越低,表示模型对该样本的预测越自信;熵越高,表示模型对该样本的预测越不确定。基于此置信度,对每个样本的损失进行自适应加权,使得置信度高的样本贡献更大的损失,置信度低的样本贡献较小的损失。这样可以更充分地利用所有无标签样本的信息,避免硬阈值带来的信息损失。

技术框架:该方法沿用半监督对比学习的整体框架,主要包含以下几个阶段:1) 使用少量有标签数据训练初始模型;2) 使用训练好的模型预测无标签数据的类别概率;3) 计算每个无标签样本的预测概率分布的熵,作为置信度估计;4) 基于置信度对每个样本的对比损失进行加权;5) 使用加权后的对比损失更新模型参数。

关键创新:该方法最重要的创新点在于提出了基于熵的置信度估计和自适应加权机制。与传统的硬阈值方法相比,该方法能够更精细地评估每个样本的置信度,并根据置信度动态调整其在训练过程中的贡献。这种自适应加权机制使得模型能够更有效地利用所有无标签样本的信息,从而提升模型性能。

关键设计:关键设计包括:1) 使用softmax输出的概率分布计算熵值,作为置信度度量;2) 设计加权函数,将熵值映射到[0, 1]之间的权重,例如可以使用sigmoid函数;3) 将计算得到的权重与对比损失相乘,实现自适应加权。对比损失可以使用现有的监督对比学习损失函数,例如NT-Xent loss。

📊 实验亮点

实验结果表明,该方法在多个图像分类数据集上取得了显著的性能提升。例如,在CIFAR-10数据集上,使用少量标签数据时,该方法相比于基线方法提升了约3-5%的分类精度。此外,该方法在不同标签比例下均表现出更稳定的学习性能,表明其对标签数量的鲁棒性更强。

🎯 应用场景

该研究成果可广泛应用于图像分类、目标检测、语音识别等领域,尤其是在标注数据稀缺的场景下,例如医学图像分析、遥感图像分析等。通过更有效地利用无标签数据,可以降低对大量标注数据的依赖,从而降低成本并提高模型泛化能力。未来,该方法可以进一步扩展到其他半监督学习任务和领域。

📄 摘要(原文)

Conventional semi-supervised contrastive learning methods assign pseudo-labels only to samples whose highest predicted class probability exceeds a predefined threshold, and then perform supervised contrastive learning using those selected samples. In this study, we propose a novel loss function that estimates the confidence of each sample based on the entropy of its predicted probability distribution and applies confidence-based adaptive weighting. This approach enables pseudo-label assignment even to samples that were previously excluded from training and facilitates contrastive learning that accounts for the confidence of both anchor and positive samples in a more principled manner. Experimental results demonstrate that the proposed method improves classification accuracy and achieves more stable learning performance even under low-label conditions.