Improving Language Model Personas via Rationalization with Psychological Scaffolds
作者: Brihi Joshi, Xiang Ren, Swabha Swayamdipta, Rik Koncel-Kedziorski, Tim Paek
分类: cs.CL
发布日期: 2025-04-25 (更新: 2025-05-20)
💡 一句话要点
提出PB&J框架,通过心理学支架增强语言模型的人格化,提升用户偏好预测。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 语言模型 人格化 心理学支架 用户偏好预测 合理化解释 五大人格特质 行为建模 用户画像
📋 核心要点
- 现有语言模型人格化方法依赖人口统计学属性和历史判断,缺乏对用户行为深层原因的建模。
- PB&J框架利用心理学理论(如五大人格特质)指导语言模型生成用户行为的合理化解释。
- 实验表明,PB&J框架显著提升了语言模型在公共舆论和电影偏好预测任务中的性能。
📝 摘要(中文)
本文提出了一种名为PB&J(行为与判断心理学)的框架,旨在通过整合用户判断背后的潜在理由来改进语言模型的人格化。现有方法主要依赖于用户的人口统计属性和/或先前的判断,而忽略了用户判断的潜在推理。PB&J框架利用语言模型生成理由,显式地推理用户基于其经验、人格特质或信念的行为。该方法采用心理学支架,如五大人格特质或原始世界信念等结构化框架,以将生成的理由扎根于现有理论。在公共舆论和电影偏好预测任务上的实验表明,通过PB&J理由增强的语言模型人格化始终优于仅以用户人口统计数据和/或判断为条件的人格化,包括那些使用模型默认思维链的人格化,而后者并未基于心理学理论。此外,PB&J人格化在性能上与使用人工编写的理由的人格化具有竞争力,表明了在现有理论指导下合成理由的潜力。
🔬 方法详解
问题定义:现有语言模型在进行用户偏好预测时,通常基于用户的人口统计信息或历史行为数据,缺乏对用户行为背后深层原因的理解。这种浅层建模方式限制了模型预测的准确性和泛化能力。现有方法,即使采用思维链(Chain-of-Thought)也缺乏心理学理论的支撑,导致生成的理由不具备说服力。
核心思路:PB&J框架的核心思路是利用心理学理论作为“支架”,引导语言模型生成更合理、更符合用户心理的解释。通过将用户的行为与人格特质、信念等心理因素联系起来,从而更准确地理解用户的偏好。
技术框架:PB&J框架主要包含以下几个阶段:1) 用户画像构建:收集用户的人口统计信息和历史行为数据。2) 心理学支架选择:选择合适的心理学理论,例如五大人格特质或原始世界信念。3) 理由生成:利用语言模型,基于用户画像和心理学支架,生成用户行为的合理化解释。4) 偏好预测:将生成的理由与用户画像结合,输入到偏好预测模型中,预测用户的偏好。
关键创新:PB&J框架的关键创新在于:1) 引入心理学支架:将心理学理论融入到语言模型的人格化过程中,提高了生成理由的合理性和可信度。2) 合成理由的潜力:实验表明,PB&J框架生成的合成理由可以与人工编写的理由相媲美,降低了人工标注的成本。
关键设计:PB&J框架的关键设计包括:1) 心理学支架的选择:不同的心理学支架适用于不同的场景,需要根据具体任务进行选择。2) 理由生成模型的训练:需要训练一个能够生成合理、符合心理学理论的理由的语言模型。3) 偏好预测模型的选择:可以选择不同的偏好预测模型,例如分类模型或回归模型。
🖼️ 关键图片
📊 实验亮点
实验结果表明,PB&J框架在公共舆论和电影偏好预测任务上显著优于基线方法。与仅使用人口统计信息或历史行为数据的方法相比,PB&J框架的性能提升明显。此外,PB&J框架生成的合成理由在性能上与人工编写的理由具有竞争力,验证了该框架的有效性。
🎯 应用场景
PB&J框架可应用于个性化推荐系统、用户画像构建、舆情分析等领域。通过更深入地理解用户行为背后的原因,可以提高推荐的准确性、用户画像的完整性以及舆情分析的准确性。该研究有助于构建更智能、更人性化的AI系统。
📄 摘要(原文)
Language models prompted with a user description or persona are being used to predict the user's preferences and opinions. However, existing approaches to building personas mostly rely on a user's demographic attributes and/or prior judgments, but not on any underlying reasoning behind a user's judgments. We introduce PB&J (Psychology of Behavior and Judgments), a framework that improves LM personas by incorporating potential rationales for why the user could have made a certain judgment. Our rationales are generated by a language model to explicitly reason about a user's behavior on the basis of their experiences, personality traits, or beliefs. Our method employs psychological scaffolds: structured frameworks such as the Big 5 Personality Traits or Primal World Beliefs to help ground the generated rationales in existing theories. Experiments on public opinion and movie preference prediction tasks demonstrate that language model personas augmented with PB&J rationales consistently outperform personas conditioned only on user demographics and / or judgments, including those that use a model's default chain-of-thought, which is not grounded in psychological theories. Additionally, our PB&J personas perform competitively with those using human-written rationales, suggesting the potential of synthetic rationales guided by existing theories.