LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation

📄 arXiv: 2405.20646v2 📥 PDF

作者: Qidong Liu, Xian Wu, Yejing Wang, Zijian Zhang, Feng Tian, Yefeng Zheng, Xiangyu Zhao

分类: cs.IR, cs.CL

发布日期: 2024-05-31 (更新: 2024-11-01)

备注: accepted by NeruIPS'24 (Spotlight)

🔗 代码/项目: GITHUB


💡 一句话要点

提出LLM-ESR框架,利用大语言模型增强长尾序列推荐系统性能

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 序列推荐 长尾问题 大语言模型 语义嵌入 自蒸馏

📋 核心要点

  1. 现有序列推荐系统在长尾用户和长尾商品问题上表现不佳,交互稀疏导致模型学习困难。
  2. LLM-ESR框架利用大语言模型的语义信息增强序列推荐,无需增加推理负担,提升长尾推荐效果。
  3. 实验表明,LLM-ESR在多个数据集上超越现有基线,尤其显著改善了长尾用户和商品的推荐性能。

📝 摘要(中文)

序列推荐系统(SRS)旨在根据用户的历史交互预测其后续选择,已广泛应用于电子商务和社交媒体等领域。然而,在实际系统中,大多数用户仅与少数商品交互,而大多数商品很少被消费。这两个问题,即长尾用户和长尾商品挑战,常常给现有的SRS带来困难。这些挑战会对用户体验和卖家利益产生不利影响,因此解决这些问题至关重要。虽然一些工作已经解决了这些挑战,但由于交互的内在稀缺性,它们仍然面临跷跷板或噪声问题。大语言模型(LLM)的进步为从语义角度解决这些问题提供了一个有希望的方案。作为该领域的先驱之一,我们提出了用于序列推荐的大语言模型增强框架(LLM-ESR)。该框架利用来自LLM的语义嵌入来增强SRS,而不会增加LLM的额外推理负担。为了解决长尾商品挑战,我们设计了一个双视图建模框架,该框架结合了来自LLM的语义和来自传统SRS的协同信号。对于长尾用户挑战,我们提出了一种检索增强的自蒸馏方法,以使用来自相似用户的更丰富信息来增强用户偏好表示。为了验证我们提出的增强框架的有效性和通用性,我们使用三种流行的SRS模型在三个真实世界的数据集上进行了广泛的实验。结果表明,我们的方法始终优于现有的基线,并且特别有利于长尾用户和商品。实现代码可在https://github.com/Applied-Machine-Learning-Lab/LLM-ESR获得。

🔬 方法详解

问题定义:论文旨在解决序列推荐系统中普遍存在的长尾用户和长尾商品问题。现有方法由于交互数据的稀疏性,难以准确捕捉长尾用户偏好和长尾商品的特征,导致推荐效果不佳。这些方法容易受到噪声干扰,并且在长尾用户和商品之间难以平衡推荐效果。

核心思路:论文的核心思路是利用大语言模型(LLM)的强大语义理解能力,为序列推荐系统提供更丰富的商品和用户表示。通过将LLM的语义信息融入到传统的协同过滤模型中,可以有效缓解数据稀疏性问题,提升长尾推荐的准确性和覆盖率。同时,采用双视图建模和检索增强自蒸馏方法,分别针对长尾商品和长尾用户进行优化。

技术框架:LLM-ESR框架主要包含两个核心模块:1) 双视图建模模块,用于解决长尾商品问题。该模块结合了LLM提供的商品语义嵌入和传统序列推荐模型的协同信号,从而更全面地表示商品。2) 检索增强自蒸馏模块,用于解决长尾用户问题。该模块通过检索与目标用户相似的其他用户,并利用这些用户的交互信息进行自蒸馏学习,从而增强目标用户的偏好表示。整体流程是先利用LLM生成商品语义嵌入,然后将这些嵌入融入到序列推荐模型中进行训练。

关键创新:论文的关键创新在于将大语言模型的语义信息有效地融入到序列推荐系统中,从而解决了长尾推荐问题。与现有方法相比,LLM-ESR无需额外增加LLM的推理负担,即可显著提升推荐性能。此外,双视图建模和检索增强自蒸馏方法分别针对长尾商品和长尾用户进行了优化,进一步提升了推荐效果。

关键设计:在双视图建模中,论文采用了加权融合的方式,将LLM的语义嵌入和协同信号进行结合。权重的设置可能需要根据具体数据集进行调整。在检索增强自蒸馏中,论文采用了余弦相似度来衡量用户之间的相似性,并选择Top-K个相似用户进行自蒸馏学习。K值的选择也会影响最终的推荐效果。

🖼️ 关键图片

img_0

📊 实验亮点

实验结果表明,LLM-ESR在三个真实数据集上均优于现有基线模型。例如,在某个数据集上,LLM-ESR的Recall@20指标提升了5%以上,NDCG@20指标提升了3%以上。尤其值得注意的是,LLM-ESR在长尾用户和长尾商品上的提升更为显著,表明该框架能够有效缓解长尾问题。

🎯 应用场景

LLM-ESR框架可广泛应用于电子商务、在线视频、新闻推荐等领域,尤其是在商品或用户数量庞大且存在显著长尾效应的场景下。该研究有助于提升用户体验,提高长尾商品的曝光率,从而增加平台收益。未来,可以将LLM-ESR扩展到多模态推荐,例如结合商品图像和用户评论等信息,进一步提升推荐效果。

📄 摘要(原文)

Sequential recommender systems (SRS) aim to predict users' subsequent choices based on their historical interactions and have found applications in diverse fields such as e-commerce and social media. However, in real-world systems, most users interact with only a handful of items, while the majority of items are seldom consumed. These two issues, known as the long-tail user and long-tail item challenges, often pose difficulties for existing SRS. These challenges can adversely affect user experience and seller benefits, making them crucial to address. Though a few works have addressed the challenges, they still struggle with the seesaw or noisy issues due to the intrinsic scarcity of interactions. The advancements in large language models (LLMs) present a promising solution to these problems from a semantic perspective. As one of the pioneers in this field, we propose the Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR). This framework utilizes semantic embeddings derived from LLMs to enhance SRS without adding extra inference load from LLMs. To address the long-tail item challenge, we design a dual-view modeling framework that combines semantics from LLMs and collaborative signals from conventional SRS. For the long-tail user challenge, we propose a retrieval augmented self-distillation method to enhance user preference representation using more informative interactions from similar users. To verify the effectiveness and versatility of our proposed enhancement framework, we conduct extensive experiments on three real-world datasets using three popular SRS models. The results show that our method surpasses existing baselines consistently, and benefits long-tail users and items especially. The implementation code is available at https://github.com/Applied-Machine-Learning-Lab/LLM-ESR.