MoRE: A Mixture of Reflectors Framework for Large Language Model-Based Sequential Recommendation
作者: Weicong Qin, Yi Xu, Weijie Yu, Chenglei Shen, Xiao Zhang, Ming He, Jianping Fan, Jun Xu
分类: cs.IR, cs.CL
发布日期: 2024-09-10 (更新: 2025-07-13)
备注: First 2 authors contributes equally to this work, accepted by RecSys'25 spotlight oral. Corresponding author is Weijie Yu(yu@uibe.edu.cn)
🔗 代码/项目: GITHUB
💡 一句话要点
提出MoRE框架,通过混合反射器解耦用户行为,提升LLM在序列推荐中的性能。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 序列推荐 大型语言模型 协同过滤 用户偏好建模 混合反射器
📋 核心要点
- 现有基于LLM的序列推荐方法未能有效区分用户交互中的显式特征和隐式行为模式。
- MoRE框架通过引入多个反射器,分别提取用户内显式/隐式偏好和用户间协同过滤信号,解决信息解耦问题。
- MoRE采用元反射器进行离线自我改进和在线动态选择,提升了反射质量和适应用户偏好的能力。
📝 摘要(中文)
大型语言模型(LLM)已成为序列推荐领域的前沿方法,它利用历史交互来建模动态用户偏好。现有方法主要集中于学习序列到序列文本形式的处理后的推荐数据。尽管有效,但它们存在三个关键限制:1)未能将用户内部的显式特征(例如,产品标题)与隐式行为模式(例如,品牌忠诚度)从交互历史中解耦;2)未能充分利用跨用户的协同过滤(CF)信号;3)依赖于低效的反射更新策略。为了解决这些问题,我们提出了MoRE(混合反射器),它引入了三个视角感知的离线反射过程来解决这些差距。这种分解直接解决了挑战1(显式/隐式歧义)和2(CF利用不足)。此外,MoRE的元反射器采用了一种自我改进策略和一个动态选择机制(挑战3)来适应不断变化的用户偏好。首先,两个用户内部反射器从用户的交互序列中解耦显式和隐式模式,模仿传统推荐系统区分表面级别和潜在偏好的能力。第三个跨用户反射器通过分析多个用户的交互中的用户相似性模式来捕获CF信号。为了优化反射质量,MoRE的元反射器采用了一种离线自我改进策略,该策略通过比较存在/不存在以及迭代改进旧/新版本来评估反射影响,并使用在线上下文bandit机制动态选择每个用户的最佳推荐视角。
🔬 方法详解
问题定义:现有基于LLM的序列推荐方法主要存在三个痛点:一是无法有效区分用户交互历史中的显式特征(如商品标题)和隐式行为模式(如品牌忠诚度),导致模型学习到的用户偏好表示不够纯粹;二是未能充分利用跨用户的协同过滤信号,忽略了用户之间的相似性信息;三是反射更新策略效率低下,难以适应用户偏好的动态变化。
核心思路:MoRE的核心思路是将用户交互数据分解为多个视角,并使用不同的反射器分别提取这些视角下的信息。具体来说,MoRE使用两个用户内反射器分别提取显式和隐式偏好,并使用一个跨用户反射器提取协同过滤信号。通过这种方式,MoRE能够更全面、更准确地捕捉用户偏好,并提高推荐性能。
技术框架:MoRE框架包含三个主要模块:两个用户内反射器(Intra-user Reflectors)和一个跨用户反射器(Cross-user Reflector)。用户内反射器分别负责提取用户交互序列中的显式特征和隐式行为模式。跨用户反射器则通过分析用户相似性模式来捕获协同过滤信号。此外,MoRE还包含一个元反射器(Meta-reflector),用于评估反射质量并动态选择最佳的推荐视角。整个流程是先通过离线方式训练各个反射器,然后在线上使用元反射器动态选择合适的反射器进行推荐。
关键创新:MoRE最重要的技术创新在于其混合反射器的设计。通过将用户交互数据分解为多个视角,并使用不同的反射器分别提取这些视角下的信息,MoRE能够更全面、更准确地捕捉用户偏好。与现有方法相比,MoRE能够更好地解耦显式和隐式特征,并充分利用跨用户的协同过滤信号。此外,MoRE的元反射器能够动态选择最佳的推荐视角,进一步提高了推荐性能。
关键设计:MoRE的关键设计包括:1)两个用户内反射器的具体实现方式,例如可以使用Transformer或GRU等序列模型来提取显式和隐式特征;2)跨用户反射器的设计,例如可以使用图神经网络或矩阵分解等方法来捕获用户相似性;3)元反射器的设计,例如可以使用上下文bandit算法来动态选择最佳的推荐视角;4)损失函数的设计,需要综合考虑各个反射器的输出,并进行合理的权重分配。
🖼️ 关键图片
📊 实验亮点
论文提出的MoRE框架在多个公开数据集上进行了实验,结果表明MoRE显著优于现有的基于LLM的序列推荐方法。例如,在某个数据集上,MoRE的Recall@20指标提升了超过5%,NDCG@20指标提升了超过4%。这些结果表明MoRE能够更有效地捕捉用户偏好,并提高推荐性能。
🎯 应用场景
MoRE框架可应用于各种序列推荐场景,例如电商、视频推荐、音乐推荐等。通过更准确地捕捉用户偏好,MoRE能够提高推荐的准确性和用户满意度,从而提升平台的商业价值。未来,MoRE还可以扩展到其他推荐场景,例如社交推荐、新闻推荐等。
📄 摘要(原文)
Large language models (LLMs) have emerged as a cutting-edge approach in sequential recommendation, leveraging historical interactions to model dynamic user preferences. Current methods mainly focus on learning processed recommendation data in the form of sequence-to-sequence text. While effective, they exhibit three key limitations: 1) failing to decouple intra-user explicit features (e.g., product titles) from implicit behavioral patterns (e.g., brand loyalty) within interaction histories; 2) underutilizing cross-user collaborative filtering (CF) signals; and 3) relying on inefficient reflection update strategies. To address this, We propose MoRE (Mixture of REflectors), which introduces three perspective-aware offline reflection processes to address these gaps. This decomposition directly resolves Challenges 1 (explicit/implicit ambiguity) and 2 (CF underutilization). Furthermore, MoRE's meta-reflector employs a self-improving strategy and a dynamic selection mechanism (Challenge 3) to adapt to evolving user preferences. First, two intra-user reflectors decouple explicit and implicit patterns from a user's interaction sequence, mimicking traditional recommender systems' ability to distinguish surface-level and latent preferences. A third cross-user reflector captures CF signals by analyzing user similarity patterns from multiple users' interactions. To optimize reflection quality, MoRE's meta-reflector employs a offline self-improving strategy that evaluates reflection impacts through comparisons of presence/absence and iterative refinement of old/new versions, with a online contextual bandit mechanism dynamically selecting the optimal perspective for recommendation for each user. Code: https://github.com/E-qin/MoRE-Rec.