Less is More: Towards Simple Graph Contrastive Learning

📄 arXiv: 2509.25742v2 📥 PDF

作者: Yanan Zhao, Feng Ji, Jingyang Dai, Jiaze Ma, Wee Peng Tay

分类: cs.LG

发布日期: 2025-09-30 (更新: 2025-12-01)

备注: Submitted to ICLR 2026


💡 一句话要点

提出一种简化的图对比学习方法,有效解决异质图上的表示学习问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 图对比学习 异质图 图神经网络 无监督学习 节点表示学习

📋 核心要点

  1. 现有图对比学习方法在异质图上表现不佳,通常依赖复杂的数据增强和模型设计。
  2. 论文提出一种简单有效的图对比学习方法,通过聚合节点特征和结构特征来减轻噪声。
  3. 实验表明,该方法在异质图上取得了state-of-the-art的结果,且具有良好的鲁棒性。

📝 摘要(中文)

图对比学习(GCL)在无监督图表示学习中表现出强大的潜力,但其在异质图上的有效性仍然有限,在异质图中,连接的节点通常属于不同的类别。现有方法大多依赖于复杂的增强方案、复杂的编码器或负采样,这引发了一个问题,即在这种具有挑战性的环境中,这种复杂性是否真正必要。在这项工作中,我们重新审视了图上的监督和无监督学习的基础,并发现了一个简单而有效的GCL原则:通过将节点特征与来自图拓扑的结构特征聚合来减轻节点特征噪声。这一观察表明,原始节点特征和图结构自然地为对比学习提供了两个互补的视图。基于这一洞察,我们提出了一个非常简单的GCL模型,该模型使用GCN编码器来捕获结构特征,并使用MLP编码器来隔离节点特征噪声。我们的设计既不需要数据增强,也不需要负采样,但以最小的计算和内存开销在异质基准上实现了最先进的结果,同时在复杂性、可扩展性和鲁棒性方面也为同质图提供了优势。我们为我们的方法提供了理论上的论证,并通过包括针对黑盒和白盒对抗攻击的鲁棒性评估在内的大量实验验证了其有效性。

🔬 方法详解

问题定义:现有图对比学习方法在异质图上表现不佳,因为异质图的连接节点可能属于不同的类别,导致节点特征与图结构之间的关系复杂。现有方法通常依赖于复杂的数据增强策略、复杂的编码器结构或负采样技术,增加了计算成本和模型复杂度,并且可能引入额外的偏差。

核心思路:论文的核心思路是利用图结构信息来缓解节点特征中的噪声。作者认为,原始节点特征和图结构提供了对比学习的两个互补视图。通过有效地结合这两种信息,可以学习到更鲁棒和有效的节点表示。

技术框架:该方法主要包含两个编码器:一个GCN编码器和一个MLP编码器。GCN编码器用于捕获图的结构信息,MLP编码器用于提取节点特征。通过对比GCN编码器和MLP编码器的输出,模型学习到节点表示。整个框架不需要数据增强和负采样。

关键创新:该方法最重要的创新点在于其简洁性。与现有方法相比,该方法不需要复杂的数据增强策略或复杂的编码器结构,而是通过简单地结合节点特征和图结构信息来实现有效的对比学习。这种简洁性使得该方法更易于实现和部署,并且具有更好的可扩展性。

关键设计:GCN编码器使用标准的GCN层。MLP编码器使用多层感知机。对比损失函数使用InfoNCE损失。模型训练过程中,GCN编码器和MLP编码器的参数同时进行优化。没有使用任何数据增强或负采样技术。

🖼️ 关键图片

img_0

📊 实验亮点

该方法在多个异质图基准数据集上取得了state-of-the-art的结果,并且在同质图上也表现出良好的性能。与现有方法相比,该方法在计算复杂度和内存开销方面具有显著优势。此外,实验结果表明,该方法对黑盒和白盒对抗攻击具有良好的鲁棒性。

🎯 应用场景

该研究成果可广泛应用于社交网络分析、生物信息学、推荐系统等领域。在这些领域中,图结构数据普遍存在,且节点之间的关系可能具有异质性。该方法能够有效地学习到节点表示,从而提升下游任务的性能,例如节点分类、链接预测等。此外,该方法具有良好的鲁棒性,可以抵抗对抗攻击,使其在安全敏感的应用中更具优势。

📄 摘要(原文)

Graph Contrastive Learning (GCL) has shown strong promise for unsupervised graph representation learning, yet its effectiveness on heterophilic graphs, where connected nodes often belong to different classes, remains limited. Most existing methods rely on complex augmentation schemes, intricate encoders, or negative sampling, which raises the question of whether such complexity is truly necessary in this challenging setting. In this work, we revisit the foundations of supervised and unsupervised learning on graphs and uncover a simple yet effective principle for GCL: mitigating node feature noise by aggregating it with structural features derived from the graph topology. This observation suggests that the original node features and the graph structure naturally provide two complementary views for contrastive learning. Building on this insight, we propose an embarrassingly simple GCL model that uses a GCN encoder to capture structural features and an MLP encoder to isolate node feature noise. Our design requires neither data augmentation nor negative sampling, yet achieves state-of-the-art results on heterophilic benchmarks with minimal computational and memory overhead, while also offering advantages in homophilic graphs in terms of complexity, scalability, and robustness. We provide theoretical justification for our approach and validate its effectiveness through extensive experiments, including robustness evaluations against both black-box and white-box adversarial attacks.