Text as a Universal Interface for Transferable Personalization
作者: Yuting Liu, Jian Guan, Jia-Nan Li, Wei Wu, Jiang-Ming Yang, Jianzhe Zhao, Guibing Guo
分类: cs.CL, cs.AI
发布日期: 2026-01-08
💡 一句话要点
提出AlignXplore+,利用文本作为通用接口实现可迁移的个性化大语言模型。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 个性化 大语言模型 文本表示 迁移学习 强化学习
📋 核心要点
- 现有大语言模型个性化方法依赖隐式向量,缺乏可解释性和跨模型迁移能力。
- 提出以自然语言作为用户偏好的通用接口,实现可解释、可复用且能持续演进的偏好描述。
- AlignXplore+在多个基准测试中超越了更大的开源模型,展现了强大的跨任务迁移能力。
📝 摘要(中文)
本文研究了大型语言模型(LLM)中的个性化问题。先前的工作主要将用户偏好表示为隐式的、模型特定的向量或参数,从而产生难以解释和跨模型、跨任务迁移的不透明“黑盒”配置文件。相比之下,我们提倡使用自然语言作为偏好表示的通用、模型和任务无关的接口。这种形式化方法产生了可解释和可重用的偏好描述,同时自然地支持随着新交互的观察而不断演进。为了学习这种表示,我们引入了一个两阶段训练框架,该框架结合了高质量合成数据上的监督微调和强化学习,以优化长期效用和跨任务可迁移性。基于此框架,我们开发了AlignXplore+,一个通用的偏好推理模型,可以生成文本偏好摘要。在九个基准测试上的实验表明,我们的8B模型实现了最先进的性能——大大优于更大的开源模型——同时在任务、模型系列和交互格式之间表现出强大的可迁移性。
🔬 方法详解
问题定义:现有的大语言模型个性化方法通常使用隐式的向量或参数来表示用户偏好,这些表示方法难以解释,并且特定于模型,无法在不同的模型和任务之间迁移。这种“黑盒”式的用户画像限制了个性化模型的通用性和可扩展性。
核心思路:论文的核心思路是将用户偏好表示为自然语言文本。这种方法将用户偏好从隐式的向量表示转换为显式的文本描述,使得偏好信息更易于理解和修改。同时,文本作为一种通用的信息载体,可以方便地在不同的模型和任务之间进行迁移。
技术框架:论文提出了一个两阶段的训练框架。第一阶段,使用监督微调(SFT)在高质量的合成数据上训练模型,使其能够根据用户交互生成文本偏好摘要。第二阶段,使用强化学习(RL)进一步优化模型,使其能够最大化长期效用和跨任务可迁移性。该框架的核心是AlignXplore+模型,它负责生成文本偏好摘要,并根据这些摘要进行后续的任务执行。
关键创新:最重要的技术创新点在于使用文本作为用户偏好的通用接口。与传统的隐式向量表示相比,文本表示具有更好的可解释性、可迁移性和可扩展性。此外,论文提出的两阶段训练框架能够有效地学习文本偏好表示,并优化模型的长期效用和跨任务可迁移性。
关键设计:在监督微调阶段,论文使用了高质量的合成数据,这些数据包含了丰富的用户交互信息和对应的文本偏好摘要。在强化学习阶段,论文设计了一个奖励函数,用于衡量模型的长期效用和跨任务可迁移性。具体的参数设置和网络结构等技术细节在论文中没有详细描述,属于未知信息。
📊 实验亮点
AlignXplore+在九个基准测试中取得了最先进的性能,超越了更大的开源模型。实验结果表明,该模型在任务、模型系列和交互格式之间表现出强大的可迁移性。例如,AlignXplore+在某些任务上的性能提升超过了10%,证明了其有效性和通用性。
🎯 应用场景
该研究成果可应用于各种需要个性化服务的场景,例如推荐系统、对话系统和内容生成。通过使用文本作为用户偏好的通用接口,可以构建更加灵活、可解释和可迁移的个性化模型,从而提升用户体验和系统性能。未来的研究可以探索如何利用更丰富的用户交互信息来生成更精确的文本偏好摘要。
📄 摘要(原文)
We study the problem of personalization in large language models (LLMs). Prior work predominantly represents user preferences as implicit, model-specific vectors or parameters, yielding opaque ``black-box'' profiles that are difficult to interpret and transfer across models and tasks. In contrast, we advocate natural language as a universal, model- and task-agnostic interface for preference representation. The formulation leads to interpretable and reusable preference descriptions, while naturally supporting continual evolution as new interactions are observed. To learn such representations, we introduce a two-stage training framework that combines supervised fine-tuning on high-quality synthesized data with reinforcement learning to optimize long-term utility and cross-task transferability. Based on this framework, we develop AlignXplore+, a universal preference reasoning model that generates textual preference summaries. Experiments on nine benchmarks show that our 8B model achieves state-of-the-art performanc -- outperforming substantially larger open-source models -- while exhibiting strong transferability across tasks, model families, and interaction formats.