HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling

📄 arXiv: 2409.12740v1 📥 PDF

作者: Junyi Chen, Lu Chi, Bingyue Peng, Zehuan Yuan

分类: cs.IR, cs.AI

发布日期: 2024-09-19

🔗 代码/项目: GITHUB


💡 一句话要点

提出HLLM:通过分层大语言模型增强序列推荐中的物品和用户建模

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 序列推荐 大语言模型 分层模型 物品建模 用户建模 内容推荐 Transformer

📋 核心要点

  1. 现有基于ID的推荐模型难以有效利用物品的丰富内容信息,且大语言模型在推荐系统中的应用潜力尚未充分挖掘。
  2. HLLM通过分层结构,分别利用物品LLM提取物品内容特征,用户LLM基于交互历史预测用户兴趣,从而实现更精准的推荐。
  3. 实验表明,HLLM在PixelRec和Amazon Reviews数据集上取得了SOTA结果,并在在线A/B测试中验证了其有效性。

📝 摘要(中文)

大语言模型(LLMs)在各个领域都取得了显著的成功,这促使一些研究探索它们在推荐系统中的潜力。然而,到目前为止,这些尝试仅比传统推荐模型取得了适度的改进。此外,三个关键问题仍未得到充分探讨:首先,LLM预训练权重的真正价值,通常被认为封装了世界知识;其次,针对推荐任务进行微调的必要性;最后,LLM是否能在推荐系统中表现出与其他领域相同的可扩展性优势。在本文中,我们提出了一种新颖的分层大语言模型(HLLM)架构,旨在增强序列推荐系统。我们的方法采用了一个两层模型:第一个物品LLM从物品的详细文本描述中提取丰富的内容特征,而第二个用户LLM利用这些特征,根据用户的交互历史来预测用户未来的兴趣。大量的实验表明,我们的方法有效地利用了开源LLM的预训练能力,并且进一步的微调带来了显著的性能提升。此外,HLLM实现了出色的可扩展性,最大的配置对物品特征提取和用户兴趣建模都使用了7B参数。此外,HLLM提供了出色的训练和服务效率,使其在实际应用中具有可行性。在两个大规模数据集PixelRec和Amazon Reviews上的评估表明,HLLM取得了最先进的结果,大大优于传统的基于ID的模型。在在线A/B测试中,HLLM展示了显著的收益,验证了其在实际推荐场景中的实际影响。代码可在https://github.com/bytedance/HLLM获得。

🔬 方法详解

问题定义:现有推荐系统,特别是序列推荐系统,通常依赖于物品ID进行建模,忽略了物品本身包含的丰富文本信息。直接应用大型语言模型到推荐任务,提升效果有限,且对LLM的预训练权重价值、微调必要性以及可扩展性等问题缺乏深入研究。

核心思路:HLLM的核心思路是利用分层的大语言模型结构,将物品内容信息和用户行为序列信息分别进行建模。通过物品LLM提取物品的深层语义特征,然后利用用户LLM学习用户基于物品特征的偏好,从而实现更精准的推荐。这种分层结构允许模型更好地利用LLM的预训练知识,并通过微调进一步提升性能。

技术框架:HLLM包含两个主要模块:物品LLM和用户LLM。首先,物品LLM接收物品的文本描述作为输入,输出物品的特征向量表示。然后,用户LLM接收用户的交互历史(即一系列物品的特征向量)作为输入,预测用户下一个可能感兴趣的物品。整个框架采用端到端的方式进行训练,通过优化推荐目标(例如,点击率预测)来更新两个LLM的参数。

关键创新:HLLM的关键创新在于其分层结构,它允许模型分别针对物品内容和用户行为进行建模,从而更好地利用LLM的预训练知识。此外,HLLM通过实验验证了LLM在推荐系统中的可扩展性,并展示了通过微调可以显著提升推荐性能。

关键设计:物品LLM和用户LLM均可采用不同规模的Transformer模型(例如,7B参数)。损失函数通常采用交叉熵损失,用于衡量预测的物品与用户实际交互的物品之间的差异。在训练过程中,可以采用不同的优化器(例如,AdamW)和学习率策略(例如,余弦退火)来提高模型的收敛速度和泛化能力。此外,可以采用负采样技术来缓解推荐系统中的数据稀疏性问题。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

HLLM在PixelRec和Amazon Reviews数据集上取得了SOTA结果,显著优于传统的ID-based模型。例如,在PixelRec数据集上,HLLM的性能提升超过10%。此外,在线A/B测试表明,HLLM能够显著提升推荐系统的点击率,验证了其在实际应用中的有效性。实验还表明,HLLM具有良好的可扩展性,即使使用7B参数的模型,也能保持较高的训练和服务效率。

🎯 应用场景

HLLM可应用于各种需要利用物品内容信息进行推荐的场景,例如电商、新闻推荐、电影推荐等。通过更精准地理解用户兴趣,HLLM可以显著提升推荐系统的点击率、转化率等指标,从而为用户提供更好的个性化体验,并为平台带来更大的商业价值。未来,HLLM可以进一步扩展到多模态推荐,例如结合图像、视频等信息,以实现更全面的用户兴趣建模。

📄 摘要(原文)

Large Language Models (LLMs) have achieved remarkable success in various fields, prompting several studies to explore their potential in recommendation systems. However, these attempts have so far resulted in only modest improvements over traditional recommendation models. Moreover, three critical questions remain under-explored: firstly, the real value of LLMs' pre-trained weights, often considered to encapsulate world knowledge; secondly, the necessity of fine-tuning for recommendation tasks; lastly, whether LLMs can exhibit the same scalability benefits in recommendation systems as they do in other domains. In this paper, we propose a novel Hierarchical Large Language Model (HLLM) architecture designed to enhance sequential recommendation systems. Our approach employs a two-tier model: the first Item LLM extracts rich content features from the detailed text description of the item, while the second User LLM utilizes these features to predict users' future interests based on their interaction history. Extensive experiments demonstrate that our method effectively leverages the pre-trained capabilities of open-source LLMs, and further fine-tuning leads to significant performance boosts. Additionally, HLLM achieves excellent scalability, with the largest configuration utilizing 7B parameters for both item feature extraction and user interest modeling. Moreover, HLLM offers excellent training and serving efficiency, making it practical in real-world applications. Evaluations on two large-scale datasets, PixelRec and Amazon Reviews, show that HLLM achieves state-of-the-art results, outperforming traditional ID-based models by a wide margin. In online A/B testing, HLLM showcases notable gains, validating its practical impact in real-world recommendation scenarios. Codes are available at https://github.com/bytedance/HLLM.