Improving Semi-Supervised Contrastive Learning via Entropy-Weighted Confidence Integration of Anchor-Positive Pairs

📄 arXiv: 2601.04555v1 📥 PDF

作者: Shogo Nakayama, Masahiro Okuda

分类: cs.LG, cs.AI

发布日期: 2026-01-08


💡 一句话要点

提出基于熵加权置信度集成的半监督对比学习方法,提升低标签数据下的分类精度。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 半监督学习 对比学习 熵加权 置信度估计 伪标签 自适应加权 低标签数据

📋 核心要点

  1. 传统半监督对比学习方法依赖于硬阈值筛选伪标签,忽略了大量置信度较低但仍包含信息的样本。
  2. 该论文提出一种基于熵的置信度估计方法,自适应地对anchor和positive样本进行加权,从而更有效地利用未标记数据。
  3. 实验结果表明,该方法在低标签率下提高了分类精度,并实现了更稳定的学习性能,验证了其有效性。

📝 摘要(中文)

本文提出了一种新的损失函数,用于改进半监督对比学习。传统方法仅为预测概率最高的类别超过预定义阈值的样本分配伪标签,然后使用这些选定的样本执行监督对比学习。本文提出的方法基于预测概率分布的熵来估计每个样本的置信度,并应用基于置信度的自适应加权。这种方法使得即使是先前被排除在训练之外的样本也能被分配伪标签,并促进了对比学习,从而以更原则的方式考虑了anchor和positive样本的置信度。实验结果表明,所提出的方法提高了分类精度,并在低标签条件下实现了更稳定的学习性能。

🔬 方法详解

问题定义:半监督对比学习旨在利用少量有标签数据和大量无标签数据来学习有效的表示。现有方法通常使用伪标签技术,即首先使用模型预测无标签数据的类别,然后将预测结果作为标签进行训练。然而,这些方法通常只选择预测概率超过预定义阈值的样本,忽略了大量置信度较低但可能包含有用信息的样本。这导致了信息损失和次优的学习效果。

核心思路:本文的核心思路是利用预测概率分布的熵来估计每个样本的置信度。熵可以反映预测的不确定性,熵越高,置信度越低。通过基于置信度对anchor和positive样本进行自适应加权,可以更有效地利用所有样本,包括那些预测概率较低的样本。这种方法允许模型从更多的数据中学习,并减少了对硬阈值的依赖。

技术框架:该方法基于标准的半监督对比学习框架。首先,使用少量有标签数据训练一个初始模型。然后,使用该模型预测无标签数据的类别概率。接下来,计算每个样本的熵,并基于熵计算置信度权重。最后,使用加权的对比损失函数来训练模型,其中anchor和positive样本的权重取决于它们的置信度。整个流程迭代进行,直到模型收敛。

关键创新:该方法最重要的创新点在于使用熵来估计样本的置信度,并基于置信度进行自适应加权。与传统的硬阈值方法相比,这种方法更加灵活和鲁棒,可以更好地利用所有样本的信息。此外,该方法还考虑了anchor和positive样本的置信度,从而更全面地考虑了样本之间的关系。

关键设计:关键设计包括:1) 使用交叉熵损失函数训练初始模型;2) 使用softmax函数将模型的输出转换为概率分布;3) 使用香农熵计算每个样本的置信度;4) 使用置信度作为权重来调整对比损失函数。对比损失函数的具体形式未知,需要参考原论文补充。网络结构也未知,需要参考原论文补充。

📊 实验亮点

实验结果表明,该方法在多个数据集上都取得了显著的性能提升。具体而言,在低标签率下,该方法相比于基线方法提高了分类精度,并且实现了更稳定的学习性能。具体的性能数据和对比基线需要在原论文中查找。

🎯 应用场景

该研究成果可应用于各种半监督学习场景,尤其是在标注数据稀缺的情况下,例如医学图像分析、遥感图像分类、自然语言处理等领域。通过更有效地利用未标注数据,可以显著提高模型的性能和泛化能力,降低对大量标注数据的依赖,从而降低成本并加速应用落地。

📄 摘要(原文)

Conventional semi-supervised contrastive learning methods assign pseudo-labels only to samples whose highest predicted class probability exceeds a predefined threshold, and then perform supervised contrastive learning using those selected samples. In this study, we propose a novel loss function that estimates the confidence of each sample based on the entropy of its predicted probability distribution and applies confidence-based adaptive weighting. This approach enables pseudo-label assignment even to samples that were previously excluded from training and facilitates contrastive learning that accounts for the confidence of both anchor and positive samples in a more principled manner. Experimental results demonstrate that the proposed method improves classification accuracy and achieves more stable learning performance even under low-label conditions.