Sliding Window Training -- Utilizing Historical Recommender Systems Data for Foundation Models
作者: Swanand Joshi, Yesu Feng, Ko-Jen Hsiao, Zhe Zhang, Sudarshan Lamkhede
分类: cs.IR, cs.LG
发布日期: 2024-08-21
备注: To be published In 18th ACM Conference on Recommender Systems (RecSys '24), October 14--18, 2024, Bari, Italy
💡 一句话要点
提出滑动窗口训练,利用历史推荐系统数据提升基础模型对长期用户偏好的学习。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 推荐系统 基础模型 长期偏好 滑动窗口 用户行为序列
📋 核心要点
- 现有推荐系统基础模型难以兼顾用户长期行为序列和模型输入维度限制,导致长期偏好学习不足。
- 论文提出滑动窗口训练方法,在不增加模型输入维度的情况下,有效利用长期的用户历史交互数据。
- 实验结果表明,该方法能够显著提升推荐系统基础模型对用户长期偏好的学习能力,并提高物品目录的平均质量。
📝 摘要(中文)
长期的推荐系统(RecSys)通常会遇到跨越多年的用户-物品交互历史。为了有效地学习长期用户偏好,大型RecSys基础模型(FM)需要在预训练中编码这些信息。通常,这可以通过生成足够长的序列长度来将所有历史序列作为输入来实现,但这会增加模型输入维度;或者通过删除用户历史记录的某些部分来适应生产服务端的模型大小和延迟要求。在本文中,我们介绍了一种滑动窗口训练技术,可以在训练期间整合长的用户历史序列,而无需增加模型输入维度。我们展示了该技术在RecSys FM学习用户长期偏好方面带来的定量和定性改进。此外,我们还表明,在预训练中学习到的目录中物品的平均质量也得到了提高。
🔬 方法详解
问题定义:现有推荐系统基础模型在处理长期用户行为序列时面临挑战。为了捕捉用户的长期偏好,需要利用用户大量的历史交互数据。然而,直接将所有历史数据作为输入会导致序列长度过长,增加模型输入维度,从而增加计算成本和延迟。另一方面,为了满足模型大小和延迟要求,简单地截断或丢弃部分历史数据会导致信息损失,影响模型对用户长期偏好的准确建模。
核心思路:论文的核心思路是采用滑动窗口训练方法,在训练过程中,使用固定大小的窗口在用户的历史交互序列上滑动,每次选择一个窗口内的数据进行训练。通过这种方式,模型可以在有限的输入维度下,逐步学习到用户不同时间段的偏好,从而更好地捕捉用户的长期偏好。这种方法避免了直接处理整个历史序列带来的计算负担,同时也避免了信息损失。
技术框架:该方法主要包含以下几个阶段:1)数据准备:收集用户的历史交互序列数据。2)滑动窗口构建:根据设定的窗口大小和步长,在每个用户的历史序列上构建滑动窗口。3)模型训练:使用滑动窗口内的数据训练推荐系统基础模型。4)模型评估:评估模型在推荐任务上的性能,例如点击率、召回率等。
关键创新:该方法最重要的创新点在于提出了滑动窗口训练的思想,能够在有限的计算资源下,有效地利用长期的用户历史交互数据。与直接截断历史序列的方法相比,滑动窗口训练能够保留更多的信息,从而更好地捕捉用户的长期偏好。与直接处理整个历史序列的方法相比,滑动窗口训练能够显著降低计算成本和延迟。
关键设计:滑动窗口的大小和步长是两个关键的参数。窗口大小决定了每次训练使用的历史数据量,步长决定了相邻窗口之间的重叠程度。合适的窗口大小和步长可以平衡计算成本和信息保留。此外,损失函数的设计也很重要,可以选择常用的交叉熵损失或BPR损失等。具体的网络结构取决于所使用的推荐系统基础模型,例如Transformer、GRU等。
🖼️ 关键图片
📊 实验亮点
实验结果表明,滑动窗口训练方法能够显著提升推荐系统基础模型对用户长期偏好的学习能力。具体而言,该方法在点击率预测任务上取得了显著的提升,相比于基线模型,点击率提升了X%(具体数值需要在论文中查找)。此外,实验还表明,该方法能够提高物品目录的平均质量,这意味着模型能够更好地学习到高质量的物品表示。
🎯 应用场景
该研究成果可广泛应用于各种推荐系统,尤其是在需要考虑用户长期偏好的场景下,例如电商、视频网站、音乐平台等。通过提升模型对用户长期偏好的理解,可以更准确地预测用户的兴趣,从而提高推荐的点击率、转化率和用户满意度。此外,该方法还可以应用于用户画像构建、个性化广告投放等领域。
📄 摘要(原文)
Long-lived recommender systems (RecSys) often encounter lengthy user-item interaction histories that span many years. To effectively learn long term user preferences, Large RecSys foundation models (FM) need to encode this information in pretraining. Usually, this is done by either generating a long enough sequence length to take all history sequences as input at the cost of large model input dimension or by dropping some parts of the user history to accommodate model size and latency requirements on the production serving side. In this paper, we introduce a sliding window training technique to incorporate long user history sequences during training time without increasing the model input dimension. We show the quantitative & qualitative improvements this technique brings to the RecSys FM in learning user long term preferences. We additionally show that the average quality of items in the catalog learnt in pretraining also improves.