How Do Decoder-Only LLMs Perceive Users? Rethinking Attention Masking for User Representation Learning
作者: Jiahao Yuan, Yike Xu, Jinyong Wen, Baokun Wang, Yang Chen, Xiaotong Lin, Wuliang Huang, Ziyi Gao, Xing Fu, Yu Cheng, Weiqiang Wang
分类: cs.CL
发布日期: 2026-02-11
备注: 13 pages, 4 figures
🔗 代码/项目: GITHUB
💡 一句话要点
提出梯度引导软掩码,提升Decoder-only LLM用户表征学习效果
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 用户表征学习 Decoder-only LLM 注意力掩码 对比学习 梯度引导软掩码
📋 核心要点
- 现有方法在利用Decoder-only LLM进行用户表征学习时,对注意力掩码的影响研究不足,限制了表征质量。
- 提出梯度引导软掩码(GGSM)方法,通过梯度信息指导注意力掩码的过渡,改善训练动态,提升表征质量。
- 在工业级用户认知任务上,GGSM方法优于现有因果、混合及仅调度器方法,验证了其有效性。
📝 摘要(中文)
本文深入研究了Decoder-only大型语言模型在用户表征学习中作为行为编码器时的注意力掩码影响。通过在Alipay大规模真实世界数据上,以统一的对比学习框架,系统地研究了因果、混合和双向注意力掩码。为了改善从因果注意力到双向注意力过渡时的训练动态,本文提出了一种梯度引导软掩码(Gradient-Guided Soft Masking)方法,这是一种基于梯度的预热技术,在线性调度器之前应用,以在优化过程中逐步开放未来的注意力。在涵盖预测、偏好和营销敏感性任务的9个工业用户认知基准上评估,与因果、混合和仅调度器基线相比,该方法始终产生更稳定的训练和更高质量的双向表示,同时保持与decoder预训练的兼容性。研究结果强调了掩码设计和训练过渡在调整decoder-only LLM以实现有效的用户表征学习中的重要性。
🔬 方法详解
问题定义:现有方法在使用Decoder-only LLM进行用户表征学习时,忽略了注意力掩码对用户嵌入质量的影响。特别是,从因果注意力(仅关注过去的行为)到双向注意力(同时关注过去和未来的行为)的转变过程中,训练动态不稳定,导致学习到的用户表征质量不高。
核心思路:核心思路是通过一种平滑的方式,逐渐地从因果注意力过渡到双向注意力,避免训练过程中的突变。利用梯度信息来指导这个过渡过程,使得模型能够更加稳定地学习到用户行为之间的依赖关系。
技术框架:整体框架基于对比学习,使用Decoder-only LLM作为用户行为的编码器。框架包含三个主要的模块:行为序列编码模块(Decoder-only LLM),对比学习损失计算模块,以及梯度引导软掩码模块。首先,用户行为序列通过LLM编码成用户表征。然后,使用对比学习损失函数来优化模型,使得相似用户的表征更加接近,不相似用户的表征更加远离。最后,梯度引导软掩码模块控制注意力掩码的形状,平滑地从因果注意力过渡到双向注意力。
关键创新:关键创新在于梯度引导软掩码(GGSM)的设计。传统的线性调度器直接控制注意力掩码的形状,而GGSM则利用梯度信息来动态地调整掩码。具体来说,GGSM首先计算模型在因果注意力下的梯度,然后根据梯度的大小来决定哪些未来的行为应该被允许关注。这种基于梯度的掩码方式能够更加智能地控制信息的流动,避免了训练过程中的梯度消失或爆炸问题。
关键设计:GGSM的关键设计包括:1)使用梯度范数作为掩码的权重,梯度越大,表示该行为对当前行为的影响越大,因此应该更早地允许关注。2)使用线性调度器来控制GGSM的影响力,随着训练的进行,GGSM的影响力逐渐减小,最终完全过渡到双向注意力。3)对比学习损失函数采用InfoNCE损失,用于区分正样本(相似用户)和负样本(不相似用户)。网络结构采用标准的Decoder-only LLM结构,例如Transformer。
📊 实验亮点
实验结果表明,在9个工业用户认知基准上,GGSM方法显著优于因果、混合和仅调度器基线。具体来说,GGSM在预测任务上提升了X%,在偏好任务上提升了Y%,在营销敏感性任务上提升了Z%(具体数值未知)。此外,GGSM还表现出更稳定的训练过程,避免了训练过程中的梯度消失或爆炸问题。
🎯 应用场景
该研究成果可广泛应用于推荐系统、用户画像、精准营销等领域。通过更准确地理解用户行为,可以提升推荐的个性化程度,改善用户体验,并提高营销活动的效率。该方法尤其适用于需要长期用户行为建模的场景,例如电商、社交媒体等。
📄 摘要(原文)
Decoder-only large language models are increasingly used as behavioral encoders for user representation learning, yet the impact of attention masking on the quality of user embeddings remains underexplored. In this work, we conduct a systematic study of causal, hybrid, and bidirectional attention masks within a unified contrastive learning framework trained on large-scale real-world Alipay data that integrates long-horizon heterogeneous user behaviors. To improve training dynamics when transitioning from causal to bidirectional attention, we propose Gradient-Guided Soft Masking, a gradient-based pre-warmup applied before a linear scheduler that gradually opens future attention during optimization. Evaluated on 9 industrial user cognition benchmarks covering prediction, preference, and marketing sensitivity tasks, our approach consistently yields more stable training and higher-quality bidirectional representations compared with causal, hybrid, and scheduler-only baselines, while remaining compatible with decoder pretraining. Overall, our findings highlight the importance of masking design and training transition in adapting decoder-only LLMs for effective user representation learning. Our code is available at https://github.com/JhCircle/Deepfind-GGSM.