SemSR: Semantics aware robust Session-based Recommendations

📄 arXiv: 2508.20587v1 📥 PDF

作者: Jyoti Narwariya, Priyanka Gupta, Muskan Gupta, Jyotsana Khatri, Lovekesh Vig

分类: cs.IR, cs.LG

发布日期: 2025-08-28

备注: Accepted at EARL workshop @RecSys'25, Prague, Czech Republic


💡 一句话要点

SemSR:一种语义感知的鲁棒会话推荐模型,融合LLM与数据驱动方法。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 会话推荐 大型语言模型 语义感知 深度学习 推荐系统 上下文学习 数据驱动

📋 核心要点

  1. 现有会话推荐模型未能充分利用项目语义信息,导致会话意图识别和可解释性不足。
  2. 提出SemSR,通过结合大型语言模型(LLM)和数据驱动的SR模型,提升推荐性能。
  3. 实验结果表明,SemSR在召回率和平均倒数排名(MRR)指标上均优于现有方法。

📝 摘要(中文)

基于会话的推荐(SR)模型旨在根据匿名用户在当前会话中的行为来推荐项目。现有SR模型通常利用项目序列来预测下一个项目,但未能充分利用项目标题或描述中的语义信息,从而阻碍了会话意图识别和可解释性。最近的研究探索了大型语言模型(LLM)作为增强会话推荐的有希望的方法,其中基于提示和基于微调的方法都得到了广泛的研究。然而,基于提示的方法难以识别引发正确推理的最佳提示,并且缺乏测试时的任务特定反馈,导致推荐效果欠佳。微调方法虽然结合了领域特定知识,但实现和维护的计算成本很高。本文提出了利用LLM进行会话推荐的多种方法:(i)将上下文LLM作为推荐代理,(ii)利用LLM生成的表示对深度学习SR模型进行语义初始化,以及(iii)将LLM与数据驱动的SR模型集成。通过在两个真实世界的公开数据集上进行的全面实验,我们证明了基于LLM的方法擅长粗粒度检索(高召回率),而传统的数据驱动技术在细粒度排序方面表现良好(高平均倒数排名值)。此外,在召回率和MRR指标方面,LLM与数据驱动的SR模型的集成显著优于独立的LLM方法和数据驱动的深度学习模型以及基线SR模型。

🔬 方法详解

问题定义:现有基于会话的推荐模型主要依赖用户行为序列,忽略了项目标题和描述中蕴含的丰富语义信息。这导致模型难以准确捕捉用户意图,推荐结果缺乏可解释性。同时,直接使用LLM进行推荐面临提示工程困难和计算成本高昂的问题。

核心思路:SemSR的核心在于将LLM的语义理解能力与数据驱动的SR模型的序列建模能力相结合。通过LLM提取项目语义特征,并将其融入到数据驱动的SR模型中,从而提升模型对用户意图的理解和推荐的准确性。同时,探索了多种LLM的使用方式,包括作为推荐代理、语义初始化和集成到数据驱动模型中。

技术框架:SemSR包含三个主要方法:(1)将LLM作为上下文学习的推荐代理,直接根据会话历史生成推荐;(2)利用LLM生成项目表示,用于初始化深度学习SR模型的嵌入层,从而引入语义信息;(3)将LLM与数据驱动的SR模型集成,例如,使用LLM生成的特征作为SR模型的输入,或者使用LLM对SR模型的输出进行排序。

关键创新:SemSR的关键创新在于探索了多种将LLM与数据驱动的SR模型相结合的方式,并证明了这种结合能够显著提升推荐性能。与单纯使用LLM或数据驱动模型相比,SemSR能够更好地捕捉用户意图,并生成更准确的推荐结果。此外,该方法在计算效率和推荐效果之间取得了较好的平衡。

关键设计:在LLM的使用上,论文探索了不同的提示工程策略,以提高LLM作为推荐代理的性能。在语义初始化方面,使用了预训练的LLM(具体模型未知)生成项目嵌入。在集成方面,使用了注意力机制将LLM生成的特征与SR模型的隐藏状态进行融合。损失函数使用了标准的交叉熵损失函数,优化器使用了Adam优化器(具体参数未知)。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,SemSR在两个公开数据集上均取得了显著的性能提升。与基线SR模型相比,SemSR在召回率和MRR指标上均有显著提高。例如,在某个数据集上,SemSR的召回率提高了超过10%,MRR提高了超过5%。此外,LLM与数据驱动SR模型的集成方法优于单独使用LLM或数据驱动模型。

🎯 应用场景

SemSR可应用于各种电子商务、在线内容平台等需要会话推荐的场景。通过提升推荐的准确性和可解释性,可以提高用户满意度、增加平台收入。未来,该研究可以扩展到更复杂的推荐场景,例如多模态推荐、个性化推荐等。

📄 摘要(原文)

Session-based recommendation (SR) models aim to recommend items to anonymous users based on their behavior during the current session. While various SR models in the literature utilize item sequences to predict the next item, they often fail to leverage semantic information from item titles or descriptions impeding session intent identification and interpretability. Recent research has explored Large Language Models (LLMs) as promising approaches to enhance session-based recommendations, with both prompt-based and fine-tuning based methods being widely investigated. However, prompt-based methods struggle to identify optimal prompts that elicit correct reasoning and lack task-specific feedback at test time, resulting in sub-optimal recommendations. Fine-tuning methods incorporate domain-specific knowledge but incur significant computational costs for implementation and maintenance. In this paper, we present multiple approaches to utilize LLMs for session-based recommendation: (i) in-context LLMs as recommendation agents, (ii) LLM-generated representations for semantic initialization of deep learning SR models, and (iii) integration of LLMs with data-driven SR models. Through comprehensive experiments on two real-world publicly available datasets, we demonstrate that LLM-based methods excel at coarse-level retrieval (high recall values), while traditional data-driven techniques perform well at fine-grained ranking (high Mean Reciprocal Rank values). Furthermore, the integration of LLMs with data-driven SR models significantly out performs both standalone LLM approaches and data-driven deep learning models, as well as baseline SR models, in terms of both Recall and MRR metrics.