A Comparative Study of Large Language Models and Human Personality Traits
作者: Wang Jiaqi, Wang bo, Guo fa, Cheng cheng, Yang li
分类: cs.CL, cs.AI
发布日期: 2025-05-01
💡 一句话要点
研究表明大型语言模型人格特质具有动态性和输入依赖性,并提出分布式人格框架。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 人格特质 人机交互 分布式人格框架 行为评估 AI伦理 智能系统
📋 核心要点
- 现有方法难以准确评估LLM的人格特质,因为LLM表现出与人类不同的人格特征。
- 论文提出分布式人格框架,将LLM人格特质视为动态的、输入驱动的,而非静态的。
- 实验表明LLM人格特质对输入敏感,缺乏长期稳定性,且受提示和参数设置影响。
📝 摘要(中文)
大型语言模型(LLMs)在语言理解和生成方面表现出类似人类的能力,成为社交和认知领域中的积极参与者。本研究探讨了LLMs是否表现出类似人格的特质,以及这些特质与人类人格的比较,重点关注传统人格评估工具的适用性。该研究采用了一种基于行为的方法,进行了三个实证研究。研究1考察了测试-复测的稳定性,发现LLMs表现出更高的变异性,并且对输入更敏感,缺乏长期稳定性。基于此,我们提出了分布式人格框架,将LLM的特质概念化为动态的和输入驱动的。研究2分析了人格测量中的跨变体一致性,发现LLMs的反应对项目措辞高度敏感,与人类相比表现出较低的内部一致性。研究3探讨了角色扮演期间的人格保持,表明LLM的特质受到提示和参数设置的影响。这些发现表明,LLMs表达出流动的、外部依赖的人格模式,为构建LLM特定的人格框架和推进人机交互提供了见解。这项工作有助于负责任的AI开发,并扩展了智能系统时代人格心理学的边界。
🔬 方法详解
问题定义:论文旨在研究大型语言模型(LLMs)是否具备类似人类的人格特质,以及这些特质与人类人格的差异。现有的人格评估工具主要针对人类设计,直接应用于LLMs可能无法准确反映其真实特性。LLMs对输入的高度敏感性和缺乏长期稳定性是现有方法的痛点。
核心思路:论文的核心思路是将LLM的人格特质视为一种动态的、输入驱动的现象,而非静态的、内在的属性。基于此,论文提出了“分布式人格框架”,认为LLM的人格是在与环境交互的过程中形成的,并受到输入、参数设置等多种因素的影响。
技术框架:论文采用了一种基于行为的实证研究方法,包含三个主要研究: 1. 测试-复测稳定性研究:评估LLMs在不同时间点对相同测试的反应一致性,考察其长期稳定性。 2. 跨变体一致性研究:分析LLMs对不同措辞但含义相同的测试题的反应一致性,评估其内部一致性。 3. 角色扮演研究:考察LLMs在不同角色扮演情境下的人格表现,以及提示和参数设置对其人格的影响。
关键创新:论文最重要的技术创新点在于提出了“分布式人格框架”,该框架突破了传统人格心理学将人格视为个体稳定属性的观点,强调了LLM人格的动态性和情境依赖性。与现有方法相比,该框架更符合LLM的特性,能够更准确地描述和预测LLM的行为。
关键设计:论文的关键设计包括: 1. 行为指标的选择:选择了能够反映人格特质的行为指标,例如回答问题的风格、情感倾向等。 2. 测试题的设计:设计了多种类型的测试题,包括开放式问题、选择题等,以全面评估LLM的人格特质。 3. 参数设置的控制:在角色扮演研究中,控制了提示的措辞、温度系数等参数,以研究这些因素对LLM人格的影响。
📊 实验亮点
研究发现,LLMs的人格特质表现出高度的变异性和输入敏感性,缺乏长期稳定性。与人类相比,LLMs的内部一致性较低,对项目措辞高度敏感。角色扮演实验表明,LLM的人格特质受到提示和参数设置的显著影响。这些结果强调了LLM人格的动态性和情境依赖性,为构建LLM特定的人格框架提供了重要依据。
🎯 应用场景
该研究成果可应用于人机交互、智能客服、虚拟助手等领域。通过理解LLM的人格特质,可以设计更自然、更有效的交互方式,提升用户体验。此外,该研究还有助于开发更安全、更负责任的AI系统,避免LLM产生有害或不当行为。未来,该研究或将推动LLM人格模型的构建,实现更个性化、更智能的AI应用。
📄 摘要(原文)
Large Language Models (LLMs) have demonstrated human-like capabilities in language comprehension and generation, becoming active participants in social and cognitive domains. This study investigates whether LLMs exhibit personality-like traits and how these traits compare with human personality, focusing on the applicability of conventional personality assessment tools. A behavior-based approach was used across three empirical studies. Study 1 examined test-retest stability and found that LLMs show higher variability and are more input-sensitive than humans, lacking long-term stability. Based on this, we propose the Distributed Personality Framework, conceptualizing LLM traits as dynamic and input-driven. Study 2 analyzed cross-variant consistency in personality measures and found LLMs' responses were highly sensitive to item wording, showing low internal consistency compared to humans. Study 3 explored personality retention during role-playing, showing LLM traits are shaped by prompt and parameter settings. These findings suggest that LLMs express fluid, externally dependent personality patterns, offering insights for constructing LLM-specific personality frameworks and advancing human-AI interaction. This work contributes to responsible AI development and extends the boundaries of personality psychology in the age of intelligent systems.