Persona-E$^2$: A Human-Grounded Dataset for Personality-Shaped Emotional Responses to Textual Events
作者: Yuqin Yang, Haowu Zhou, Haoran Tu, Zhiwen Hui, Shiqi Yan, HaoYang Li, Dong She, Xianrong Yao, Yang Gao, Zhanpeng Jin
分类: cs.CL, cs.AI, cs.HC
发布日期: 2026-04-10
备注: Accepted by ACL 2026 Main
💡 一句话要点
提出Persona-E$^2$数据集,用于研究人格对文本事件情感反应的影响
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 情感计算 人格化情感 大型语言模型 数据集构建 读者视角
📋 核心要点
- 现有情感计算方法忽略了读者人格对情感评估的影响,导致模型无法捕捉细微的情感差异。
- 论文构建Persona-E$^2$数据集,包含MBTI和Big Five人格特质标注,用于研究人格与情感反应之间的关系。
- 实验表明,现有LLM难以捕捉社交媒体领域的情感变化,而人格信息特别是Big Five特质能有效提升模型性能。
📝 摘要(中文)
目前的情感计算研究主要将情感视为文本的静态属性,侧重于作者的情感,忽略了读者的视角。这种方法忽略了不同人格如何导致对同一事件产生不同的情感评估。虽然角色扮演的大型语言模型(LLM)试图模拟这种细微的反应,但它们常常受到“人格错觉”的影响,即依赖于表面刻板印象而非真实的认知逻辑。一个关键的瓶颈是缺乏将人格特质与情感变化联系起来的真实人类数据。为了弥合这一差距,我们引入了Persona-E$^2$(Persona-Event2Emotion),这是一个大规模数据集,基于带注释的MBTI和Big Five特质,捕捉新闻、社交媒体和生活叙事中基于读者的情感变化。大量实验表明,最先进的LLM难以捕捉精确的情感评估变化,尤其是在社交媒体领域。至关重要的是,我们发现人格信息显著提高了理解能力,其中Big Five特质缓解了“人格错觉”。
🔬 方法详解
问题定义:现有情感计算研究主要关注文本本身的情感,忽略了读者的人格差异对情感理解的影响。大型语言模型在模拟人格化情感反应时,容易陷入“人格错觉”,即依赖刻板印象而非真实认知。缺乏高质量的人格化情感反应数据集是主要痛点。
核心思路:论文的核心思路是构建一个大规模数据集,将文本事件与读者的人格特质(MBTI和Big Five)以及相应的情感反应联系起来。通过这个人格化的情感反应数据集,可以训练和评估模型在理解和模拟不同人格的情感反应方面的能力。
技术框架:Persona-E$^2$数据集构建流程主要包括以下几个阶段:1) 数据收集:从新闻、社交媒体和生活叙事等不同来源收集文本事件。2) 人格标注:邀请标注员根据MBTI和Big Five人格模型对虚拟读者进行人格特质标注。3) 情感标注:标注员根据给定的人格和文本事件,标注读者可能产生的情感反应。4) 数据验证:对标注数据进行质量控制和验证,确保数据的一致性和准确性。
关键创新:该论文的关键创新在于构建了一个大规模的、基于人格特质的情感反应数据集Persona-E$^2$。与以往的情感计算数据集不同,Persona-E$^2$关注的是读者的人格对情感反应的影响,而非仅仅是文本本身的情感。这为研究人格化情感理解和生成提供了新的数据基础。
关键设计:数据集包含三种类型的文本事件:新闻、社交媒体和生活叙事。人格特质采用MBTI和Big Five两种模型进行标注,情感反应采用离散的情感类别进行标注。论文还设计了相应的实验来评估现有LLM在Persona-E$^2$数据集上的表现,并分析了不同人格特质对情感理解的影响。
🖼️ 关键图片
📊 实验亮点
实验结果表明,现有LLM在Persona-E$^2$数据集上表现不佳,尤其是在社交媒体领域。加入人格信息后,模型性能显著提升,其中Big Five人格特质对缓解“人格错觉”效果更佳。例如,在情感分类任务中,使用Big Five人格特质的模型相比基线模型,准确率提升了5%-10%。这表明人格信息对于理解和模拟情感反应至关重要。
🎯 应用场景
该研究成果可应用于个性化推荐系统、情感聊天机器人、心理健康咨询等领域。通过理解不同人格对文本事件的情感反应,可以为用户提供更精准、更贴心的服务。例如,在新闻推荐中,可以根据用户的人格特质推荐更符合其情感偏好的新闻内容。在情感聊天机器人中,可以模拟不同人格的对话风格,提供更自然、更人性化的交互体验。
📄 摘要(原文)
Most affective computing research treats emotion as a static property of text, focusing on the writer's sentiment while overlooking the reader's perspective. This approach ignores how individual personalities lead to diverse emotional appraisals of the same event. Although role-playing Large Language Models (LLMs) attempt to simulate such nuanced reactions, they often suffer from "personality illusion'' -- relying on surface-level stereotypes rather than authentic cognitive logic. A critical bottleneck is the absence of ground-truth human data to link personality traits to emotional shifts. To bridge the gap, we introduce Persona-E$^2$ (Persona-Event2Emotion), a large-scale dataset grounded in annotated MBTI and Big Five traits to capture reader-based emotional variations across news, social media, and life narratives. Extensive experiments reveal that state-of-the-art LLMs struggle to capture precise appraisal shifts, particularly in social media domains. Crucially, we find that personality information significantly improves comprehension, with the Big Five traits alleviating "personality illusion.'