ReasoningRec: Bridging Personalized Recommendations and Human-Interpretable Explanations through LLM Reasoning

📄 arXiv: 2410.23180v1 📥 PDF

作者: Millennium Bismay, Xiangjue Dong, James Caverlee

分类: cs.IR, cs.AI

发布日期: 2024-10-30

备注: Large Language Model, Recommendation, Human-Interpretable Reasoning, Personalization

🔗 代码/项目: GITHUB


💡 一句话要点

ReasoningRec:利用LLM推理弥合推荐系统与人类可解释性之间的差距

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 推荐系统 大型语言模型 可解释性 个性化推荐 推理 知识迁移 用户建模

📋 核心要点

  1. 传统推荐系统依赖隐式交互,缺乏人类可理解的解释,限制了用户信任和系统透明度。
  2. ReasoningRec利用LLM建模用户和物品,生成偏好解释,并微调LLM以提升推荐准确性和可解释性。
  3. 实验表明,ReasoningRec在推荐预测上优于现有方法,提升高达12.5%,并提供可理解的解释。

📝 摘要(中文)

本文提出了一种基于推理的推荐框架ReasoningRec,它利用大型语言模型(LLM)来弥合推荐和人类可解释性之间的差距。与依赖隐式用户-物品交互的传统推荐系统不同,ReasoningRec采用LLM来建模用户和物品,侧重于偏好、厌恶和解释性推理。该框架利用一个较大的LLM来生成用户偏好的合成解释,随后用于微调一个较小的LLM,以提高推荐准确性和人类可理解的解释。我们的实验研究调查了推理和上下文信息对个性化推荐的影响,揭示了上下文和个性化数据的质量显著影响LLM生成合理解释的能力。经验评估表明,ReasoningRec在推荐预测方面超越了最先进的方法,提升高达12.5%,同时提供人类可理解的解释。代码已开源。

🔬 方法详解

问题定义:现有推荐系统主要依赖用户-物品的隐式交互数据,缺乏对用户偏好的显式建模和可解释性。用户难以理解推荐的原因,导致信任度降低。此外,冷启动问题也难以解决,因为缺乏足够的用户行为数据来推断偏好。

核心思路:ReasoningRec的核心在于利用大型语言模型(LLM)的推理能力,显式地建模用户和物品的偏好和厌恶,并生成人类可理解的解释。通过将推荐问题转化为一个推理问题,可以更好地利用LLM的知识和推理能力,从而提高推荐的准确性和可解释性。

技术框架:ReasoningRec框架包含以下主要模块:1) 用户和物品建模:使用LLM对用户和物品进行建模,提取其特征和属性。2) 偏好生成:利用LLM生成用户对物品的偏好和厌恶的解释。3) 模型微调:使用生成的解释数据微调一个较小的LLM,用于最终的推荐预测。整体流程是先用较大的LLM生成解释,再用这些解释来训练一个更小的、更高效的LLM用于实际推荐。

关键创新:ReasoningRec的关键创新在于将LLM的推理能力引入到推荐系统中,从而实现了推荐结果的可解释性。与传统的基于隐式交互的推荐方法不同,ReasoningRec显式地建模了用户和物品的偏好,并生成了人类可理解的解释。此外,利用较大的LLM生成数据来微调较小的LLM,是一种有效的知识迁移方法。

关键设计:框架的关键设计包括:1) 如何设计prompt来引导LLM生成高质量的解释;2) 如何选择合适的LLM进行建模和微调;3) 如何评估生成解释的质量;4) 如何将生成的解释融入到推荐模型中。论文中使用了特定的prompt工程技术来引导LLM生成更准确和相关的解释。损失函数的设计也至关重要,需要平衡推荐准确性和解释质量。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

实验结果表明,ReasoningRec在推荐预测方面超越了最先进的方法,提升高达12.5%。该方法不仅提高了推荐的准确性,还提供了人类可理解的解释,增强了用户对推荐结果的信任。实验还验证了上下文和个性化数据的质量对LLM生成合理解释的能力有显著影响。

🎯 应用场景

ReasoningRec可应用于各种推荐场景,例如电商、电影、音乐等。它能够提供更个性化、更可信的推荐结果,提高用户满意度和信任度。此外,该方法还可以用于冷启动场景,通过LLM的知识和推理能力来推断用户的偏好。未来,可以将该方法扩展到更复杂的推荐场景,例如多模态推荐、社交推荐等。

📄 摘要(原文)

This paper presents ReasoningRec, a reasoning-based recommendation framework that leverages Large Language Models (LLMs) to bridge the gap between recommendations and human-interpretable explanations. In contrast to conventional recommendation systems that rely on implicit user-item interactions, ReasoningRec employs LLMs to model users and items, focusing on preferences, aversions, and explanatory reasoning. The framework utilizes a larger LLM to generate synthetic explanations for user preferences, subsequently used to fine-tune a smaller LLM for enhanced recommendation accuracy and human-interpretable explanation. Our experimental study investigates the impact of reasoning and contextual information on personalized recommendations, revealing that the quality of contextual and personalized data significantly influences the LLM's capacity to generate plausible explanations. Empirical evaluations demonstrate that ReasoningRec surpasses state-of-the-art methods by up to 12.5\% in recommendation prediction while concurrently providing human-intelligible explanations. The code is available here: https://github.com/millenniumbismay/reasoningrec.