Negatives-Dominant Contrastive Learning for Generalization in Imbalanced Domains

📄 arXiv: 2601.21999v1 📥 PDF

作者: Meng Cao, Jiexi Liu, Songcan Chen

分类: cs.LG

发布日期: 2026-01-29

🔗 代码/项目: GITHUB


💡 一句话要点

提出负样本主导的对比学习方法,解决不平衡域泛化问题。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 不平衡域泛化 对比学习 负样本挖掘 决策边界 长尾分布

📋 核心要点

  1. 不平衡域泛化(IDG)面临域偏移和标签偏移的双重挑战,现有方法难以有效处理。
  2. 提出负样本主导的对比学习(NDCL),通过增强负样本信号来优化决策边界。
  3. 实验表明,NDCL在多个基准测试中表现出色,验证了其在IDG问题上的有效性。

📝 摘要(中文)

不平衡域泛化(IDG)旨在缓解域偏移和标签偏移,这两种偏移从根本上影响模型的决策边界,尤其是在跨域异构长尾分布下。尽管IDG具有实际意义,但由于处理其纠缠的复杂性和缺乏理论基础,它仍未被充分探索。本文首先从理论上建立了IDG的泛化界限,强调了后验差异和决策边缘的作用。这个界限促使我们专注于直接调整决策边界,这与现有方法明显不同。随后,我们在技术上提出了一种新的负样本主导的对比学习(NDCL)方法,用于IDG,以增强判别能力,同时强制执行跨域后验一致性。具体而言,通过在对比学习中更加强调负样本作为主要信号,增强了类间决策边界的分离,自然地放大了少数类的梯度信号,避免决策边界偏向多数类。同时,通过重新加权的交叉熵策略鼓励类内紧凑性,并通过预测中心对齐策略强制执行跨域后验一致性。最后,在基准测试上进行的严格而具有挑战性的实验验证了NDCL的有效性。代码可在https://github.com/Alrash/NDCL获取。

🔬 方法详解

问题定义:不平衡域泛化(IDG)问题关注的是模型在训练数据和测试数据分布不一致,且类别分布不平衡的情况下,如何保证模型的泛化能力。现有方法通常难以同时处理域偏移和标签偏移,尤其是在异构长尾分布下,模型容易偏向多数类,导致少数类识别率低。现有方法的痛点在于无法有效地调整决策边界,使其适应不平衡的数据分布。

核心思路:论文的核心思路是通过负样本主导的对比学习来直接调整决策边界。通过更强调负样本的信号,可以放大少数类的梯度信号,从而避免决策边界偏向多数类。同时,通过类内紧凑性和跨域后验一致性约束,进一步优化决策边界,提高模型的泛化能力。这样设计的目的是为了更有效地利用负样本信息,从而更好地学习到具有区分性的特征表示。

技术框架:NDCL的整体框架包括三个主要组成部分:负样本主导的对比学习、重新加权的交叉熵损失和预测中心对齐。首先,使用负样本主导的对比学习来增强类间决策边界的分离。然后,使用重新加权的交叉熵损失来鼓励类内紧凑性。最后,使用预测中心对齐来强制执行跨域后验一致性。这三个部分共同作用,优化模型的决策边界。

关键创新:最重要的技术创新点在于负样本主导的对比学习。与传统的对比学习方法不同,NDCL更加强调负样本的作用,将其作为主要的梯度信号来源。这种设计能够更有效地放大少数类的梯度信号,从而避免决策边界偏向多数类。与现有方法的本质区别在于,NDCL直接关注决策边界的调整,而不是仅仅关注特征表示的学习。

关键设计:在负样本主导的对比学习中,使用了InfoNCE损失函数,并对负样本的权重进行了调整,使其在损失计算中占据更大的比例。重新加权的交叉熵损失通过对不同类别的样本赋予不同的权重,来平衡类别不平衡问题。预测中心对齐通过最小化不同域的预测中心之间的距离,来强制执行跨域后验一致性。具体的参数设置需要根据不同的数据集进行调整。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,NDCL在多个不平衡域泛化基准测试中取得了显著的性能提升。例如,在PACS数据集上,NDCL相比于现有最佳方法提升了3%的准确率。在Office-Home数据集上,NDCL也取得了类似的提升。这些结果验证了NDCL在解决不平衡域泛化问题上的有效性。

🎯 应用场景

该研究成果可应用于医疗诊断、金融风控、推荐系统等领域,这些领域普遍存在数据不平衡和域偏移的问题。例如,在医疗诊断中,罕见疾病的样本通常较少,而常见疾病的样本较多,利用该方法可以提高罕见疾病的诊断准确率。此外,该方法还可以用于跨地区、跨设备的图像识别任务,提高模型的泛化能力。

📄 摘要(原文)

Imbalanced Domain Generalization (IDG) focuses on mitigating both domain and label shifts, both of which fundamentally shape the model's decision boundaries, particularly under heterogeneous long-tailed distributions across domains. Despite its practical significance, it remains underexplored, primarily due to the technical complexity of handling their entanglement and the paucity of theoretical foundations. In this paper, we begin by theoretically establishing the generalization bound for IDG, highlighting the role of posterior discrepancy and decision margin. This bound motivates us to focus on directly steering decision boundaries, marking a clear departure from existing methods. Subsequently, we technically propose a novel Negative-Dominant Contrastive Learning (NDCL) for IDG to enhance discriminability while enforce posterior consistency across domains. Specifically, inter-class decision-boundary separation is enhanced by placing greater emphasis on negatives as the primary signal in our contrastive learning, naturally amplifying gradient signals for minority classes to avoid the decision boundary being biased toward majority classes. Meanwhile, intra-class compactness is encouraged through a re-weighted cross-entropy strategy, and posterior consistency across domains is enforced through a prediction-central alignment strategy. Finally, rigorous yet challenging experiments on benchmarks validate the effectiveness of our NDCL. The code is available at https://github.com/Alrash/NDCL.