Reasoning-guided Collaborative Filtering with Language Models for Explainable Recommendation
作者: Fahad Anwaar, Adil Mehmood Khan, Muhammad Khalid, Usman Zia, Kezhi Wang
分类: cs.AI
发布日期: 2026-02-05
💡 一句话要点
RGCF-XRec:融合推理引导的协同过滤与语言模型,实现可解释推荐
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 可解释推荐 协同过滤 大型语言模型 推理引导 序列推荐
📋 核心要点
- 现有可解释推荐方法通常将推荐和解释分离,忽略协同信号,且内存占用大,限制了实际应用。
- RGCF-XRec通过推理引导的协同过滤知识增强语言模型,实现单步可解释序列推荐,提升效率和效果。
- 实验表明,RGCF-XRec在多个Amazon数据集上显著提升了推荐准确率和解释质量,尤其在冷启动场景下。
📝 摘要(中文)
大型语言模型(LLMs)在可解释推荐系统中展现出潜力,但忽略了协同信号。现有方法将推荐和解释视为独立任务,导致内存占用过大。本文提出了RGCF-XRec,一个混合框架,将推理引导的协同过滤(CF)知识融入语言模型,以单步方式提供可解释的序列推荐。理论基础和实验结果表明,RGCF-XRec相比于领先的基于CF感知的LLM方法,具有三个关键优势:(1)通过上下文提示进行推理引导的CF知识增强,以发现潜在偏好和可解释的推理路径;(2)基于连贯性、完整性、相关性和一致性四个维度的有效评分机制,以减轻噪声CF推理轨迹并保留高质量的解释;(3)统一的表示学习网络,编码协同和语义信号,使结构化提示能够调节LLM以进行可解释的序列推荐。RGCF-XRec在Amazon数据集(Sports、Toys和Beauty,包含642,503个用户-物品交互)上表现出持续的改进。在Sports中,HR@10提高了7.38%,在Toys中提高了4.59%,ROUGE-L分别提高了8.02%和3.49%。它缩小了冷启动和热启动的性能差距,在冷启动场景中实现了14.5%的总体增益,在热启动场景中实现了11.9%的总体增益,并在Beauty中将零样本HR@5提高了18.54%,在Toys中提高了23.16%,突出了有效的泛化和鲁棒性。此外,RGCF-XRec通过轻量级的LLaMA 3.2-3B骨干实现了训练效率,确保了现实世界应用的可扩展性。
🔬 方法详解
问题定义:现有可解释推荐系统通常将推荐和解释生成作为两个独立的任务处理,导致模型复杂度高,训练成本大,且难以充分利用用户-物品交互的协同信息。此外,现有方法在生成解释时,容易产生与用户偏好不一致或缺乏连贯性的解释,影响用户体验。
核心思路:RGCF-XRec的核心思路是将协同过滤的知识融入到大型语言模型中,通过推理引导的方式,让模型能够同时进行推荐和生成可解释的理由。通过上下文提示,模型能够发现潜在的用户偏好和可解释的推理路径,从而生成更准确和连贯的推荐解释。
技术框架:RGCF-XRec框架主要包含三个模块:(1)推理引导的协同过滤知识增强模块:利用上下文提示,从协同过滤数据中提取用户和物品的潜在偏好,并生成推理路径;(2)解释质量评分模块:基于连贯性、完整性、相关性和一致性四个维度,对生成的推理路径进行评分,过滤掉噪声信息,保留高质量的解释;(3)统一表示学习网络:将协同信息和语义信息编码到统一的表示空间中,并利用结构化提示来调节LLM,使其能够生成可解释的序列推荐。
关键创新:RGCF-XRec的关键创新在于将推理引导的协同过滤知识融入到语言模型中,实现了推荐和解释的联合优化。通过上下文提示和解释质量评分机制,模型能够生成更准确、连贯和相关的推荐解释。此外,统一的表示学习网络能够有效地编码协同信息和语义信息,提升模型的泛化能力。
关键设计:RGCF-XRec使用轻量级的LLaMA 3.2-3B作为语言模型骨干,以提高训练效率和可扩展性。在损失函数方面,模型采用了推荐损失和解释损失的加权组合,以平衡推荐准确率和解释质量。上下文提示的设计至关重要,需要精心设计提示模板,以引导模型生成有意义的推理路径。解释质量评分模块的四个维度(连贯性、完整性、相关性和一致性)的权重需要根据具体数据集进行调整。
🖼️ 关键图片
📊 实验亮点
RGCF-XRec在Amazon数据集上取得了显著的性能提升。在Sports数据集中,HR@10提高了7.38%,ROUGE-L提高了8.02%。在Toys数据集中,HR@10提高了4.59%,ROUGE-L提高了3.49%。此外,RGCF-XRec有效地缩小了冷启动和热启动的性能差距,并在零样本场景下取得了显著的提升,表明其具有良好的泛化能力和鲁棒性。
🎯 应用场景
RGCF-XRec可应用于电商、社交媒体、在线教育等多个领域,为用户提供个性化和可解释的推荐服务。通过提供推荐理由,可以增强用户对推荐结果的信任感,提升用户满意度和平台转化率。该研究对于提升推荐系统的透明度和可信度具有重要意义,有助于构建更加智能和人性化的推荐系统。
📄 摘要(原文)
Large Language Models (LLMs) exhibit potential for explainable recommendation systems but overlook collaborative signals, while prevailing methods treat recommendation and explanation as separate tasks, resulting in a memory footprint. We present RGCF-XRec, a hybrid framework that introduces reasoning-guided collaborative filtering (CF) knowledge into a language model to deliver explainable sequential recommendations in a single step. Theoretical grounding and empirical findings reveal that RGCF-XRec offers three key merits over leading CF-aware LLM-based methods: (1) reasoning-guided augmentation of CF knowledge through contextual prompting to discover latent preferences and interpretable reasoning paths; (2) an efficient scoring mechanism based on four dimensions: coherence, completeness, relevance, and consistency to mitigate noisy CF reasoning traces and retain high-quality explanations; (3) a unified representation learning network that encodes collaborative and semantic signals, enabling a structured prompt to condition the LLM for explainable sequential recommendation. RGCF-XRec demonstrates consistent improvements across Amazon datasets, Sports, Toys, and Beauty, comprising 642,503 user-item interactions. It improves HR@10 by 7.38\% in Sports and 4.59\% in Toys, along with ROUGE-L by 8.02\% and 3.49\%, respectively. It reduces the cold warm performance gap, achieving overall gains of 14.5\% in cold-start and 11.9\% in warm start scenarios, and enhances zero-shot HR@5 by 18.54\% in Beauty and 23.16\% in Toys, highlighting effective generalization and robustness. Moreover, RGCF-XRec achieves training efficiency with a lightweight LLaMA 3.2-3B backbone, ensuring scalability for real-world applications.