Unlocking the Potential of Large Language Models for Explainable Recommendations

📄 arXiv: 2312.15661v3 📥 PDF

作者: Yucong Luo, Mingyue Cheng, Hao Zhang, Junyu Lu, Qi Liu, Enhong Chen

分类: cs.IR, cs.AI

发布日期: 2023-12-25 (更新: 2024-01-03)

🔗 代码/项目: GITHUB


💡 一句话要点

LLMXRec:利用大语言模型提升可解释推荐效果,实现更优解释生成

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 可解释推荐 大型语言模型 推荐系统 指令调优 个性化提示

📋 核心要点

  1. 现有可解释推荐系统依赖小型语言模型,其解释能力受限,难以充分提升用户信任和决策质量。
  2. LLMXRec框架通过结合传统推荐模型和大型语言模型,利用微调技术生成更流畅、可控的推荐解释。
  3. 实验结果表明,LLMXRec在有效性和效率上均有提升,并揭示了利用LLM进行解释推荐的潜在优势。

📝 摘要(中文)

本文提出了一种名为LLMXRec的两阶段可解释推荐框架,旨在通过利用大型语言模型(LLM)来提升解释质量。与现有基于小型语言模型的可解释推荐系统不同,LLMXRec强调先前推荐模型与基于LLM的解释生成器之间的紧密协作。通过采用参数高效的指令调优和个性化提示技术等关键微调技术,可以生成可控且流畅的解释,从而实现解释推荐的目标。论文从三个不同的角度评估了解释的有效性,并在多个基准推荐模型和公开数据集上进行了广泛的实验。实验结果在有效性和效率方面都取得了积极的结果,并揭示了一些先前未知的结论。代码和详细的原始结果已开源。

🔬 方法详解

问题定义:现有可解释推荐系统通常使用小型语言模型生成推荐解释,这些模型在生成自然流畅、信息丰富的解释方面存在局限性,难以充分提升用户信任度和辅助用户决策。因此,如何利用新兴的大型语言模型(LLM)来生成更高质量的推荐解释,成为一个亟待解决的问题。

核心思路:LLMXRec的核心思路是将传统的推荐模型与大型语言模型相结合,利用推荐模型提供推荐结果,然后利用LLM生成针对该推荐结果的解释。通过微调LLM,使其能够根据用户的历史行为和物品的特征,生成个性化、可控的解释,从而提升用户对推荐结果的理解和信任。

技术框架:LLMXRec是一个两阶段的框架。第一阶段,使用传统的推荐模型(如矩阵分解、神经协同过滤等)生成推荐结果。第二阶段,将推荐结果、用户信息和物品信息作为输入,输入到经过微调的LLM中,LLM生成针对该推荐结果的解释。框架的关键在于LLM的微调,采用了参数高效的指令调优和个性化提示技术。

关键创新:LLMXRec的关键创新在于强调了传统推荐模型与LLM之间的紧密协作。与直接使用LLM进行推荐不同,LLMXRec利用传统推荐模型提供准确的推荐结果,然后利用LLM生成高质量的解释。这种方法可以充分利用传统推荐模型的优势,同时提升解释的质量。

关键设计:LLMXRec采用了参数高效的指令调优和个性化提示技术来微调LLM。参数高效的指令调优可以减少微调所需的计算资源,个性化提示技术可以使LLM生成更符合用户需求的解释。具体的参数设置和损失函数等技术细节在论文中进行了详细描述,例如使用了特定的prompt模版来引导LLM生成解释,并设计了相应的损失函数来优化LLM的生成效果。

📊 实验亮点

实验结果表明,LLMXRec在多个基准数据集上取得了显著的性能提升。与传统的基于小型语言模型的可解释推荐系统相比,LLMXRec生成的解释更流畅、更具信息量,能够更好地提升用户对推荐结果的理解和信任。此外,实验还揭示了LLM在可解释推荐中的一些潜在优势,例如能够生成更个性化的解释和更好地处理长尾物品。

🎯 应用场景

LLMXRec可应用于各种在线推荐场景,例如电商、视频平台、新闻推荐等。通过提供高质量的推荐解释,可以提升用户对推荐结果的信任度,促进用户采纳推荐,从而提高平台的转化率和用户满意度。未来,该研究可以扩展到更复杂的可解释推荐场景,例如多轮交互式推荐和面向特定领域知识的推荐。

📄 摘要(原文)

Generating user-friendly explanations regarding why an item is recommended has become increasingly common, largely due to advances in language generation technology, which can enhance user trust and facilitate more informed decision-making when using online services. However, existing explainable recommendation systems focus on using small-size language models. It remains uncertain what impact replacing the explanation generator with the recently emerging large language models (LLMs) would have. Can we expect unprecedented results? In this study, we propose LLMXRec, a simple yet effective two-stage explainable recommendation framework aimed at further boosting the explanation quality by employing LLMs. Unlike most existing LLM-based recommendation works, a key characteristic of LLMXRec is its emphasis on the close collaboration between previous recommender models and LLM-based explanation generators. Specifically, by adopting several key fine-tuning techniques, including parameter-efficient instructing tuning and personalized prompt techniques, controllable and fluent explanations can be well generated to achieve the goal of explanation recommendation. Most notably, we provide three different perspectives to evaluate the effectiveness of the explanations. Finally, we conduct extensive experiments over several benchmark recommender models and publicly available datasets. The experimental results not only yield positive results in terms of effectiveness and efficiency but also uncover some previously unknown outcomes. To facilitate further explorations in this area, the full code and detailed original results are open-sourced at https://github.com/GodFire66666/LLM_rec_explanation/.