CORONA: A Coarse-to-Fine Framework for Graph-based Recommendation with Large Language Models
作者: Junze Chen, Xinjie Yang, Cheng Yang, Junfei Bao, Zeyuan Guo, Yawen Li, Chuan Shi
分类: cs.IR, cs.AI
发布日期: 2025-06-14
💡 一句话要点
提出CORONA框架,利用大语言模型进行图推荐的粗到细候选过滤。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 推荐系统 图神经网络 大型语言模型 候选过滤 协同过滤
📋 核心要点
- 现有推荐系统利用GNN捕获高阶交互关系,但LLM在候选过滤中应用不足,限制了推荐性能。
- CORONA框架利用LLM进行偏好和意图推理,逐步缩小候选物品范围,实现粗到细的候选过滤。
- 实验结果表明,CORONA在召回率和NDCG指标上均取得了显著提升,优于现有方法。
📝 摘要(中文)
推荐系统旨在从大量物品中检索用户可能感兴趣的候选物品。一种常见方法是使用图神经网络(GNN)来捕获高阶交互关系。由于大型语言模型(LLM)在各个领域都表现出强大的能力,研究人员正在探索使用它们来增强推荐效果。然而,先前的工作将LLM限制在结果重排序或数据集增强方面,未能充分利用它们在候选过滤过程中的能力,这可能导致次优的性能。因此,我们提出在候选过滤过程中利用LLM的推理能力,并引入链式检索图(CORONA),借助LLM逐步缩小交互图上候选物品的范围:(1)首先,LLM基于用户画像进行偏好推理,其响应作为查询从交互图中提取相关的用户和物品,作为偏好辅助检索;(2)然后,利用上一步检索到的信息以及目标用户的购买历史,LLM进行意图推理,以帮助细化一个更小的交互子图,作为意图辅助检索;(3)最后,我们使用GNN从提取的子图中捕获高阶协同过滤信息,执行GNN增强检索以生成最终的推荐结果。所提出的框架在检索过程中利用了LLM的推理能力,同时无缝集成了GNN,以提高整体推荐性能。在各种数据集和设置上进行的大量实验表明,我们提出的CORONA实现了最先进的性能,平均召回率相对提高了18.6%,NDCG相对提高了18.4%。
🔬 方法详解
问题定义:现有基于GNN的推荐系统,虽然能有效捕获高阶交互关系,但在候选物品过滤阶段,未能充分利用LLM的推理能力。以往工作通常仅将LLM用于重排序或数据增强,导致候选集范围过大,影响最终推荐效果。
核心思路:CORONA的核心思路是利用LLM的推理能力,在候选物品过滤阶段进行偏好和意图的逐步细化。通过LLM对用户画像和历史行为的理解,缩小候选物品的范围,从而提高推荐的准确性和效率。这种粗到细的过滤方式,能够更好地利用LLM的知识和推理能力。
技术框架:CORONA框架包含三个主要阶段:偏好辅助检索、意图辅助检索和GNN增强检索。首先,LLM基于用户画像进行偏好推理,生成查询语句,从交互图中检索相关用户和物品。然后,LLM结合偏好检索结果和用户购买历史,进行意图推理,进一步缩小候选子图的范围。最后,利用GNN在提取的子图上进行高阶协同过滤,生成最终的推荐结果。
关键创新:CORONA的关键创新在于将LLM的推理能力融入到候选物品的过滤过程中,实现了粗到细的检索框架。与以往仅在重排序阶段使用LLM的方法不同,CORONA在更早的阶段就利用LLM进行候选集筛选,从而更有效地利用了LLM的知识和推理能力。
关键设计:在偏好推理阶段,LLM被prompt生成自然语言查询,用于在交互图中检索相关节点。意图推理阶段,LLM结合用户历史行为和偏好检索结果,进一步细化查询。GNN部分采用常见的图卷积网络结构,损失函数采用BPR loss等。
🖼️ 关键图片
📊 实验亮点
实验结果表明,CORONA在多个数据集上均取得了显著的性能提升。与现有最先进的方法相比,CORONA在召回率上平均提升了18.6%,在NDCG上平均提升了18.4%。这些结果验证了CORONA框架的有效性,证明了利用LLM进行候选过滤的优势。
🎯 应用场景
CORONA框架可应用于各种推荐场景,例如电商、社交媒体、新闻推荐等。通过利用LLM的推理能力,可以更准确地理解用户偏好和意图,从而提供更个性化和相关的推荐结果。该研究有助于提升推荐系统的用户满意度和商业价值。
📄 摘要(原文)
Recommender systems (RSs) are designed to retrieve candidate items a user might be interested in from a large pool. A common approach is using graph neural networks (GNNs) to capture high-order interaction relationships. As large language models (LLMs) have shown strong capabilities across domains, researchers are exploring their use to enhance recommendation. However, prior work limits LLMs to re-ranking results or dataset augmentation, failing to utilize their power during candidate filtering - which may lead to suboptimal performance. Instead, we propose to leverage LLMs' reasoning abilities during the candidate filtering process, and introduce Chain Of Retrieval ON grAphs (CORONA) to progressively narrow down the range of candidate items on interaction graphs with the help of LLMs: (1) First, LLM performs preference reasoning based on user profiles, with the response serving as a query to extract relevant users and items from the interaction graph as preference-assisted retrieval; (2) Then, using the information retrieved in the previous step along with the purchase history of target user, LLM conducts intent reasoning to help refine an even smaller interaction subgraph as intent-assisted retrieval; (3) Finally, we employ a GNN to capture high-order collaborative filtering information from the extracted subgraph, performing GNN-enhanced retrieval to generate the final recommendation results. The proposed framework leverages the reasoning capabilities of LLMs during the retrieval process, while seamlessly integrating GNNs to enhance overall recommendation performance. Extensive experiments on various datasets and settings demonstrate that our proposed CORONA achieves state-of-the-art performance with an 18.6% relative improvement in recall and an 18.4% relative improvement in NDCG on average.