Boosting Knowledge Graph-based Recommendations through Confidence-Aware Augmentation with Large Language Models

📄 arXiv: 2502.03715v1 📥 PDF

作者: Rui Cai, Chao Wang, Qianyi Cai, Dazhong Shen, Hui Xiong

分类: cs.IR, cs.AI

发布日期: 2025-02-06


💡 一句话要点

提出CKG-LLMA框架,通过置信度感知增强知识图谱,提升推荐系统性能。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 知识图谱推荐 大型语言模型 置信度感知 对比学习 推荐系统 知识图谱增强 LLM幻觉

📋 核心要点

  1. 现有知识图谱推荐系统受限于知识图谱构建成本高昂和数据质量问题,影响推荐准确性。
  2. CKG-LLMA框架利用LLM增强知识图谱,并通过置信度感知机制过滤噪声,提升知识质量。
  3. 实验结果表明,CKG-LLMA在多个数据集上显著提升了推荐性能,验证了框架的有效性。

📝 摘要(中文)

基于知识图谱的推荐系统因其利用丰富的语义关系而备受关注。然而,构建和维护知识图谱(KG)需要大量的资源,并且KG的准确性可能受到噪声、过时或不相关三元组的影响。大型语言模型(LLM)的最新进展为提高KG的质量和推荐任务的相关性提供了一种有希望的方法。尽管如此,将LLM集成到基于KG的系统中仍然存在挑战,例如有效地增强KG、解决幻觉以及开发有效的联合学习方法。在本文中,我们提出了一个基于置信度感知的、利用LLM增强的知识图谱推荐框架(CKG-LLMA),该框架结合了KG和LLM用于推荐任务。该框架包括:(1)一个基于LLM的子图增强器,用于用高质量信息丰富KG;(2)一个置信度感知消息传播机制,用于过滤噪声三元组;(3)一种双视图对比学习方法,用于整合用户-项目交互和KG数据。此外,我们采用置信度感知的解释生成过程来指导LLM为推荐生成真实的解释。最后,大量的实验证明了CKG-LLMA在多个公共数据集上的有效性。

🔬 方法详解

问题定义:现有基于知识图谱的推荐系统面临两个主要问题。一是知识图谱的构建和维护成本高昂,需要大量的人力和物力。二是知识图谱中可能存在噪声、过时或不相关的信息,这些信息会降低推荐系统的准确性。现有方法难以有效地利用大型语言模型(LLM)来增强知识图谱,同时解决LLM可能产生的幻觉问题。

核心思路:CKG-LLMA框架的核心思路是利用LLM生成高质量的知识图谱补充信息,并通过置信度感知机制来过滤噪声三元组,从而提高知识图谱的质量和推荐系统的性能。该框架还采用双视图对比学习方法,将用户-项目交互和知识图谱数据整合在一起,以获得更全面的用户和项目表示。

技术框架:CKG-LLMA框架包含三个主要模块:(1)LLM-based subgraph augmenter:利用LLM生成高质量的子图,用于增强知识图谱。(2)Confidence-aware message propagation:通过置信度感知机制,过滤知识图谱中的噪声三元组,提高知识图谱的质量。(3)Dual-view contrastive learning:采用双视图对比学习方法,将用户-项目交互和知识图谱数据整合在一起,以获得更全面的用户和项目表示。

关键创新:该论文的关键创新在于提出了一个置信度感知的知识图谱增强框架,该框架能够有效地利用LLM生成高质量的知识图谱补充信息,并通过置信度感知机制来过滤噪声三元组。此外,该框架还采用双视图对比学习方法,将用户-项目交互和知识图谱数据整合在一起,从而获得更全面的用户和项目表示。与现有方法相比,CKG-LLMA框架能够更有效地利用LLM来增强知识图谱,并解决LLM可能产生的幻觉问题。

关键设计:在LLM-based subgraph augmenter模块中,使用了特定的prompt来引导LLM生成高质量的子图。在Confidence-aware message propagation模块中,使用了一个置信度评分函数来评估每个三元组的置信度,并根据置信度来调整消息传播的权重。在Dual-view contrastive learning模块中,使用了InfoNCE损失函数来学习用户和项目的表示。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,CKG-LLMA框架在多个公共数据集上显著提升了推荐性能。例如,在MovieLens-20M数据集上,CKG-LLMA框架的Recall@20指标比最先进的基线方法提高了5%以上。此外,实验还验证了置信度感知机制和双视图对比学习方法的有效性。

🎯 应用场景

该研究成果可应用于电商推荐、社交网络推荐、新闻推荐等多个领域。通过提升知识图谱的质量和相关性,可以显著提高推荐系统的准确性和用户满意度。未来,该方法可以进一步扩展到其他知识密集型任务,例如问答系统、对话系统等。

📄 摘要(原文)

Knowledge Graph-based recommendations have gained significant attention due to their ability to leverage rich semantic relationships. However, constructing and maintaining Knowledge Graphs (KGs) is resource-intensive, and the accuracy of KGs can suffer from noisy, outdated, or irrelevant triplets. Recent advancements in Large Language Models (LLMs) offer a promising way to improve the quality and relevance of KGs for recommendation tasks. Despite this, integrating LLMs into KG-based systems presents challenges, such as efficiently augmenting KGs, addressing hallucinations, and developing effective joint learning methods. In this paper, we propose the Confidence-aware KG-based Recommendation Framework with LLM Augmentation (CKG-LLMA), a novel framework that combines KGs and LLMs for recommendation task. The framework includes: (1) an LLM-based subgraph augmenter for enriching KGs with high-quality information, (2) a confidence-aware message propagation mechanism to filter noisy triplets, and (3) a dual-view contrastive learning method to integrate user-item interactions and KG data. Additionally, we employ a confidence-aware explanation generation process to guide LLMs in producing realistic explanations for recommendations. Finally, extensive experiments demonstrate the effectiveness of CKG-LLMA across multiple public datasets.