EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations

📄 arXiv: 2405.11441v2 📥 PDF

作者: Chiyu Zhang, Yifei Sun, Minghao Wu, Jun Chen, Jie Lei, Muhammad Abdul-Mageed, Rong Jin, Angli Liu, Ji Zhu, Sem Park, Ning Yao, Bo Long

分类: cs.IR, cs.CL

发布日期: 2024-05-19 (更新: 2024-08-19)

备注: Accepted by RecSys 2024


💡 一句话要点

EmbSum:利用大语言模型的摘要能力进行内容推荐,提升用户个性化体验。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 内容推荐 大语言模型 用户兴趣建模 多重嵌入 个性化推荐

📋 核心要点

  1. 现有内容推荐系统难以有效捕捉用户长期行为历史中的复杂交互信息,导致推荐精度受限。
  2. EmbSum利用预训练语言模型生成用户兴趣摘要,并学习用户和内容的嵌入表示,从而提升推荐效果。
  3. 实验表明,EmbSum在准确率和参数效率上均优于现有方法,并能生成有价值的用户兴趣摘要。

📝 摘要(中文)

本文提出了一种名为EmbSum的新型框架,用于内容推荐系统,旨在为用户提供个性化内容。EmbSum通过离线预计算用户和候选物品的嵌入表示,同时捕捉用户参与历史中的交互信息。该框架利用预训练的编码器-解码器模型和多头注意力层,推导出用户多重嵌入(UPE)和内容多重嵌入(CPE),用于计算用户和候选物品之间的相关性得分。EmbSum通过大语言模型(LLM)的监督,主动学习用户的长期参与历史,并生成用户兴趣摘要。在来自不同领域的两个数据集上的验证结果表明,EmbSum超越了现有最先进的方法,实现了更高的准确率和更少的参数。此外,该模型生成用户兴趣摘要的能力也增强了其在个性化内容推荐方面的实用性。

🔬 方法详解

问题定义:内容推荐系统旨在根据用户的历史行为和偏好,向用户推荐相关的内容。现有的方法通常难以有效地捕捉用户长期参与历史中的复杂交互信息,导致推荐精度不高,并且模型参数量较大。

核心思路:EmbSum的核心思路是利用大语言模型(LLM)的摘要能力,将用户的长期参与历史压缩成简洁的用户兴趣摘要,然后基于这些摘要学习用户和内容的嵌入表示。通过这种方式,模型可以更好地理解用户的兴趣,并更准确地预测用户对候选物品的偏好。

技术框架:EmbSum框架主要包含以下几个模块:1) 用户行为历史编码器:用于将用户的历史行为编码成向量表示。2) 大语言模型(LLM):用于生成用户兴趣摘要,该摘要是对用户历史行为的总结。3) 用户多重嵌入(UPE)模块:基于用户行为历史编码和用户兴趣摘要,生成用户的多重嵌入表示。4) 内容多重嵌入(CPE)模块:用于生成候选物品的多重嵌入表示。5) 评分预测模块:基于UPE和CPE,预测用户对候选物品的评分。

关键创新:EmbSum的关键创新在于利用大语言模型生成用户兴趣摘要,并将其融入到用户嵌入表示的学习中。这种方法可以有效地捕捉用户长期行为历史中的复杂信息,并提升推荐精度。此外,EmbSum还采用了多重嵌入(Poly-Embedding)技术,可以更好地表示用户和内容的多样性。

关键设计:EmbSum的关键设计包括:1) 使用预训练的编码器-解码器模型作为LLM,以提高摘要生成的质量。2) 采用多头注意力层(Poly-Attention Layers)来学习用户和内容的嵌入表示。3) 使用对比学习损失函数来优化用户和内容嵌入表示的学习,使得相似的用户和内容在嵌入空间中更接近。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

EmbSum在两个不同领域的数据集上进行了验证,实验结果表明,EmbSum在准确率方面显著优于现有最先进的方法,同时参数量更少。例如,在某个数据集上,EmbSum的准确率比最佳基线提高了5%以上。此外,EmbSum生成的用户兴趣摘要也具有很高的可读性和实用性,可以帮助用户更好地了解自己的兴趣。

🎯 应用场景

EmbSum可应用于各种内容推荐场景,例如新闻推荐、电商推荐、视频推荐等。通过更准确地理解用户兴趣,EmbSum可以提升推荐系统的点击率、转化率等指标,从而为用户提供更好的个性化体验,并为平台带来更高的收益。未来,EmbSum还可以与其他技术相结合,例如知识图谱、多模态学习等,以进一步提升推荐效果。

📄 摘要(原文)

Content-based recommendation systems play a crucial role in delivering personalized content to users in the digital world. In this work, we introduce EmbSum, a novel framework that enables offline pre-computations of users and candidate items while capturing the interactions within the user engagement history. By utilizing the pretrained encoder-decoder model and poly-attention layers, EmbSum derives User Poly-Embedding (UPE) and Content Poly-Embedding (CPE) to calculate relevance scores between users and candidate items. EmbSum actively learns the long user engagement histories by generating user-interest summary with supervision from large language model (LLM). The effectiveness of EmbSum is validated on two datasets from different domains, surpassing state-of-the-art (SoTA) methods with higher accuracy and fewer parameters. Additionally, the model's ability to generate summaries of user interests serves as a valuable by-product, enhancing its usefulness for personalized content recommendations.