Enhancing Time Awareness in Generative Recommendation
作者: Sunkyung Lee, Seongmin Park, Jonghyo Kim, Mincheol Yoon, Jongwuk Lee
分类: cs.IR, cs.CL
发布日期: 2025-09-17 (更新: 2025-11-03)
备注: EMNLP 2025 (Findings)
🔗 代码/项目: GITHUB
💡 一句话要点
提出GRUT模型,通过时间感知提升生成式推荐效果
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 生成式推荐 时间感知 用户偏好 时间序列 大型语言模型 推荐系统 趋势感知
📋 核心要点
- 现有生成式推荐方法忽略了用户行为序列中的时间信息,无法有效捕捉用户偏好的动态变化。
- GRUT模型通过时间感知提示和趋势感知推理,显式地建模用户和物品的时间信息,从而提升推荐效果。
- 实验结果表明,GRUT在多个数据集上显著优于现有方法,在Recall@5和NDCG@5指标上取得了显著提升。
📝 摘要(中文)
生成式推荐已成为一种有前景的范式,它将推荐任务转化为文本到文本的生成任务,从而利用大型语言模型的广泛知识。然而,现有研究侧重于考虑项目的顺序,而忽略了项目之间的时间动态,这可能暗示着用户偏好的演变。为了解决这个局限性,我们提出了一种新的模型,即时间感知生成式推荐器(GRUT),它通过各种时间信号有效地捕捉隐藏的用户偏好。我们首先引入时间感知提示,它由两个关键上下文组成。用户级时间上下文对跨时间戳和时间间隔的个性化时间模式进行建模,而项目级转换上下文提供跨用户的转换模式。我们还设计了趋势感知推理,这是一种无需训练的方法,通过将项目的趋势信息与生成可能性相结合来增强排名。广泛的实验表明,GRUT优于最先进的模型,在四个基准数据集上的Recall@5和NDCG@5分别提高了15.4%和14.3%。源代码可在https://github.com/skleee/GRUT获得。
🔬 方法详解
问题定义:现有生成式推荐模型主要关注用户行为序列中物品的顺序关系,忽略了时间因素的影响。然而,用户偏好随时间演变,物品流行度也随时间变化。因此,如何有效利用时间信息来提升生成式推荐模型的性能是一个关键问题。
核心思路:GRUT的核心思路是通过引入时间感知机制,显式地建模用户和物品的时间信息。具体来说,GRUT利用时间感知提示来捕捉用户个性化的时间模式和物品之间的转换模式,并利用趋势感知推理来结合物品的流行度信息,从而提升推荐的准确性和多样性。
技术框架:GRUT模型主要包含两个核心模块:时间感知提示(Time-aware Prompting)和趋势感知推理(Trend-aware Inference)。时间感知提示模块负责将时间信息融入到模型的输入中,包括用户级时间上下文和项目级转换上下文。趋势感知推理模块则在推理阶段,根据物品的流行度调整生成概率,从而提升推荐效果。整体流程是:首先,利用时间感知提示构建包含时间信息的输入;然后,利用生成模型生成推荐结果;最后,利用趋势感知推理调整推荐结果的排序。
关键创新:GRUT的关键创新在于:1) 提出了时间感知提示,能够有效地捕捉用户和物品的时间信息;2) 设计了趋势感知推理,能够在不重新训练模型的情况下,利用物品的流行度信息提升推荐效果。与现有方法相比,GRUT能够更全面地考虑时间因素,从而更准确地捕捉用户偏好。
关键设计:在时间感知提示中,用户级时间上下文建模了个性化的时间模式,例如用户在特定时间段更倾向于购买某一类商品。项目级转换上下文则建模了物品之间的转换模式,例如用户在购买A商品后更倾向于购买B商品。趋势感知推理则根据物品的流行度调整生成概率,流行度高的物品更容易被推荐。具体的参数设置和损失函数等细节在论文中有详细描述。
🖼️ 关键图片
📊 实验亮点
实验结果表明,GRUT在四个基准数据集上显著优于现有的生成式推荐模型。具体来说,GRUT在Recall@5指标上取得了高达15.4%的提升,在NDCG@5指标上取得了高达14.3%的提升。这些结果表明,GRUT能够有效地利用时间信息,从而提升生成式推荐的性能。
🎯 应用场景
GRUT模型可以应用于各种需要考虑时间因素的推荐场景,例如电商、新闻、音乐和视频推荐等。通过更准确地捕捉用户偏好的动态变化和物品的流行度趋势,GRUT可以提升推荐的个性化程度和用户满意度,从而提高平台的转化率和用户粘性。未来,可以将GRUT与其他推荐技术相结合,进一步提升推荐效果。
📄 摘要(原文)
Generative recommendation has emerged as a promising paradigm that formulates the recommendations into a text-to-text generation task, harnessing the vast knowledge of large language models. However, existing studies focus on considering the sequential order of items and neglect to handle the temporal dynamics across items, which can imply evolving user preferences. To address this limitation, we propose a novel model, Generative Recommender Using Time awareness (GRUT), effectively capturing hidden user preferences via various temporal signals. We first introduce Time-aware Prompting, consisting of two key contexts. The user-level temporal context models personalized temporal patterns across timestamps and time intervals, while the item-level transition context provides transition patterns across users. We also devise Trend-aware Inference, a training-free method that enhances rankings by incorporating trend information about items with generation likelihood. Extensive experiments demonstrate that GRUT outperforms state-of-the-art models, with gains of up to 15.4% and 14.3% in Recall@5 and NDCG@5 across four benchmark datasets. The source code is available at https://github.com/skleee/GRUT.