Symmetric Graph Contrastive Learning against Noisy Views for Recommendation
作者: Chu Zhao, Enneng Yang, Yuliang Liang, Jianzhe Zhao, Guibing Guo, Xingwei Wang
分类: cs.LG, cs.AI, cs.IR
发布日期: 2024-08-03
备注: 24 pages, submitted to TOIS
💡 一句话要点
提出对称图对比学习SGCL,解决推荐系统中噪声视图干扰问题。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 图对比学习 推荐系统 噪声视图 对称学习 数据增强
📋 核心要点
- 现有图对比学习推荐方法易受噪声视图干扰,直接扰动交互图可能生成质量差的对比视图。
- 提出对称图对比学习(SGCL),利用对称理论构建抗噪声干扰的对称形式和对比损失。
- 实验表明,SGCL在三个真实数据集上显著提升推荐准确性,最高相对提升达12.25%。
📝 摘要(中文)
图对比学习(GCL)利用数据增强技术生成对比视图,通过学习对比视图之间的一致性来提高推荐系统的准确性。然而,现有的增强方法,例如直接扰动交互图(如节点/边 dropout),可能会干扰原始连接并生成较差的对比视图,导致次优性能。本文将由于较差的数据增强而仅与原始图共享少量信息的视图定义为噪声视图(即,余弦相似度值小于0.1的后20%的视图)。通过详细的实验证明,噪声视图会显著降低推荐性能。为此,我们提出了一种与模型无关的对称图对比学习(SGCL)方法,并提供理论保证来解决这个问题。具体来说,我们将对称理论引入图对比学习,在此基础上,我们提出了一种对称形式和抗噪声干扰的对比损失。我们提供了理论证明,表明我们提出的SGCL方法对噪声视图具有很高的容忍度。通过在三个真实世界数据集上进行的大量实验进一步证明了这一点。实验结果表明,我们的方法显著提高了推荐准确性,相对于其他九个竞争模型,相对改进高达12.25%。这些结果突出了我们方法的有效性。
🔬 方法详解
问题定义:现有图对比学习推荐方法依赖于数据增强生成对比视图,但直接对交互图进行扰动(如节点/边dropout)可能引入噪声,生成与原始图差异过大的“噪声视图”。这些噪声视图会误导模型训练,导致推荐性能下降。论文旨在解决如何提高图对比学习对噪声视图的鲁棒性,避免其对推荐效果产生负面影响的问题。
核心思路:论文的核心思路是引入对称性理论,构建对称的对比学习框架。通过对称性约束,使得模型更加关注视图之间共享的、可靠的信息,从而降低噪声视图的影响。对称性保证了从不同角度学习到的表示应该是一致的,即使某些视图包含噪声。
技术框架:SGCL的整体框架包括以下几个主要步骤:1) 图数据增强:使用多种数据增强方法生成多个对比视图。2) 图编码器:使用图神经网络(GNN)对每个视图进行编码,得到节点表示。3) 对称对比学习:利用对称损失函数,促使不同视图的节点表示尽可能一致,从而学习到鲁棒的节点表示。4) 推荐预测:使用学习到的节点表示进行推荐预测。
关键创新:论文的关键创新在于将对称性理论引入图对比学习,并设计了相应的对称损失函数。传统的对比学习方法通常只关注正样本对(即同一节点的两个视图),而忽略了负样本对之间的关系。SGCL通过对称性约束,同时考虑正样本对和负样本对,从而更好地学习到节点之间的相似性关系,并提高对噪声视图的鲁棒性。
关键设计:SGCL的关键设计包括:1) 对称损失函数:该损失函数同时考虑了正样本对和负样本对,并利用对称性约束来降低噪声视图的影响。具体来说,损失函数鼓励同一节点的两个视图的表示尽可能相似,同时鼓励不同节点的视图表示尽可能不同。2) 噪声视图识别:论文定义了噪声视图的标准,并分析了噪声视图对推荐性能的影响。3) 模型无关性:SGCL是一种与模型无关的方法,可以应用于各种图神经网络模型。
📊 实验亮点
实验结果表明,SGCL在三个真实数据集上显著提高了推荐准确性。例如,在Gowalla数据集上,SGCL相对于表现最佳的基线模型,相对提升高达12.25%。此外,实验还验证了SGCL对噪声视图的鲁棒性,即使在存在大量噪声视图的情况下,SGCL仍然能够取得良好的性能。
🎯 应用场景
该研究成果可应用于各种基于图结构的推荐系统,例如社交网络推荐、电商商品推荐、新闻推荐等。通过提高模型对噪声数据的鲁棒性,可以提升推荐系统的准确性和用户体验。此外,该方法还可以推广到其他图学习任务中,例如节点分类、链接预测等。
📄 摘要(原文)
Graph Contrastive Learning (GCL) leverages data augmentation techniques to produce contrasting views, enhancing the accuracy of recommendation systems through learning the consistency between contrastive views. However, existing augmentation methods, such as directly perturbing interaction graph (e.g., node/edge dropout), may interfere with the original connections and generate poor contrasting views, resulting in sub-optimal performance. In this paper, we define the views that share only a small amount of information with the original graph due to poor data augmentation as noisy views (i.e., the last 20% of the views with a cosine similarity value less than 0.1 to the original view). We demonstrate through detailed experiments that noisy views will significantly degrade recommendation performance. Further, we propose a model-agnostic Symmetric Graph Contrastive Learning (SGCL) method with theoretical guarantees to address this issue. Specifically, we introduce symmetry theory into graph contrastive learning, based on which we propose a symmetric form and contrast loss resistant to noisy interference. We provide theoretical proof that our proposed SGCL method has a high tolerance to noisy views. Further demonstration is given by conducting extensive experiments on three real-world datasets. The experimental results demonstrate that our approach substantially increases recommendation accuracy, with relative improvements reaching as high as 12.25% over nine other competing models. These results highlight the efficacy of our method.