A Comparative Study of Large Language Models and Human Personality Traits
作者: Wang Jiaqi, Wang bo, Guo fa, Cheng cheng, Yang li
分类: cs.CL, cs.AI
发布日期: 2025-05-01
💡 一句话要点
提出分布式人格框架以分析大型语言模型的人格特征
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 人格特征 分布式人格框架 人机交互 心理学 动态评估 输入敏感性
📋 核心要点
- 现有方法在评估大型语言模型的人格特征时,缺乏稳定性和一致性,难以与人类人格进行有效比较。
- 论文提出分布式人格框架,强调LLMs的人格特征是动态的,受输入驱动,适应性强。
- 实验结果显示,LLMs在不同测试中的表现高度依赖于提示和参数设置,展现出流动性和外部依赖性的人格模式。
📝 摘要(中文)
大型语言模型(LLMs)在语言理解和生成方面展现出类人能力,成为社会和认知领域的活跃参与者。本研究探讨LLMs是否表现出类似人格特征,以及这些特征与人类人格的比较,重点关注传统人格评估工具的适用性。通过三项实证研究,发现LLMs在测试-重测稳定性方面表现出更高的变异性和对输入的敏感性,缺乏长期稳定性。基于此,提出分布式人格框架,将LLMs的人格特征概念化为动态和输入驱动的。研究结果为构建LLM特定的人格框架和促进人机交互提供了见解,推动了负责任的人工智能发展,拓展了智能系统时代的人格心理学边界。
🔬 方法详解
问题定义:本研究旨在解决大型语言模型在人格特征评估中的稳定性和一致性问题。现有方法未能有效捕捉LLMs与人类人格的比较,导致评估结果不可靠。
核心思路:论文提出的分布式人格框架认为LLMs的人格特征是动态的,受输入内容的影响,强调其流动性和适应性,以此来更好地理解和评估LLMs的人格表现。
技术框架:研究分为三项实证研究:第一项研究测试了LLMs的重测稳定性,第二项研究分析了人格测量的一致性,第三项研究探讨了角色扮演中的人格保持。每项研究均采用行为基础的方法进行分析。
关键创新:最重要的技术创新在于提出了分布式人格框架,强调LLMs的人格特征是动态和输入驱动的,与传统的人格评估方法形成鲜明对比。
关键设计:研究中使用了不同的提示和参数设置来评估LLMs的反应,发现其对问题措辞的敏感性较高,内部一致性低于人类,显示出其人格特征的流动性和外部依赖性。
📊 实验亮点
实验结果显示,LLMs在测试中的表现高度依赖于输入提示,第一项研究表明其重测稳定性低于人类,第二项研究则发现其内部一致性显著低于人类。这些发现为理解LLMs的人格特征提供了重要见解。
🎯 应用场景
该研究为大型语言模型的人格特征分析提供了新的视角,潜在应用于人机交互、智能客服和个性化推荐系统等领域。通过理解LLMs的人格特征,可以提升用户体验,促进更自然的交互方式,推动人工智能的负责任发展。
📄 摘要(原文)
Large Language Models (LLMs) have demonstrated human-like capabilities in language comprehension and generation, becoming active participants in social and cognitive domains. This study investigates whether LLMs exhibit personality-like traits and how these traits compare with human personality, focusing on the applicability of conventional personality assessment tools. A behavior-based approach was used across three empirical studies. Study 1 examined test-retest stability and found that LLMs show higher variability and are more input-sensitive than humans, lacking long-term stability. Based on this, we propose the Distributed Personality Framework, conceptualizing LLM traits as dynamic and input-driven. Study 2 analyzed cross-variant consistency in personality measures and found LLMs' responses were highly sensitive to item wording, showing low internal consistency compared to humans. Study 3 explored personality retention during role-playing, showing LLM traits are shaped by prompt and parameter settings. These findings suggest that LLMs express fluid, externally dependent personality patterns, offering insights for constructing LLM-specific personality frameworks and advancing human-AI interaction. This work contributes to responsible AI development and extends the boundaries of personality psychology in the age of intelligent systems.