Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses

📄 arXiv: 2502.15365v2 📥 PDF

作者: Bongsu Kang, Jundong Kim, Tae-Rim Yun, Hyojin Bae, Chang-Eop Kim

分类: cs.HC, cs.AI, cs.CL, cs.CY

发布日期: 2025-02-21 (更新: 2025-02-25)

备注: 11 pages, 3 figures, 4 tables

期刊: Computers in Human Behavior Reports, Volume 21 (2026) 100901

DOI: 10.1016/j.chbr.2025.100901


💡 一句话要点

量化分析人类对LLM主观意识的感知:特征影响与个体差异

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 AI意识感知 人机交互 情感计算 元认知 量化研究 心理学实验

📋 核心要点

  1. 现有研究缺乏对LLM文本特征与人类感知AI意识之间关系的量化分析,难以深入理解人机交互的心理机制。
  2. 本研究通过回归和聚类分析,量化评估了元认知、情感等八个文本特征对人类感知AI意识的影响,揭示了特征权重模式。
  3. 实验结果表明,元认知自我反思和情感表达显著提升了感知意识,而知识的过度强调则降低了它,并发现了个体差异。

📝 摘要(中文)

本研究定量考察了基于大型语言模型(LLM)的AI系统所生成的文本中,哪些特征会影响人类对其主观意识的感知。通过分析与Claude 3 Opus的99段对话,并关注八个特征——元认知自我反思、逻辑推理、共情、情感性、知识、流畅性、意外性和主观表达性——我们对123名参与者进行了调查。利用回归和聚类分析,我们研究了这些特征如何影响参与者对AI意识的感知。结果表明,元认知自我反思和AI自身情感的表达显著提高了感知到的意识,而对知识的过度强调则降低了它。参与者分为七个亚组,每个亚组表现出不同的特征权重模式。此外,对LLM的较高先验知识和更频繁地使用基于LLM的聊天机器人与对AI意识的更高总体可能性评估相关。这项研究强调了感知到的AI意识的多维性和个体化性质,并为更好地理解人机交互的社会心理影响奠定了基础。

🔬 方法详解

问题定义:本研究旨在解决的问题是:在LLM生成的文本中,哪些具体特征会影响人类对其主观意识的感知?现有方法主要依赖于定性分析或主观判断,缺乏量化的、细粒度的特征分析,难以揭示不同特征对感知意识的相对重要性,以及个体差异。

核心思路:核心思路是通过量化分析LLM生成文本的多个关键特征(如元认知、情感等),并结合人类受试者的主观感知数据,建立特征与感知意识之间的关联模型。通过回归分析确定各特征的影响权重,并通过聚类分析识别具有相似感知模式的个体亚组。这种方法能够更客观、更全面地理解人类对AI意识的感知机制。

技术框架:整体框架包括以下几个阶段:1) 数据收集:收集与Claude 3 Opus的99段对话文本。2) 特征提取:人工标注提取文本中的八个关键特征(元认知、逻辑推理、共情、情感性、知识、流畅性、意外性和主观表达性)。3) 问卷调查:招募123名参与者,评估他们对AI意识的感知程度。4) 回归分析:使用回归模型分析各特征对感知意识的影响权重。5) 聚类分析:使用聚类算法识别具有相似特征权重模式的参与者亚组。

关键创新:最重要的技术创新点在于将LLM生成文本的特征进行量化,并结合心理学实验方法,系统地研究了这些特征与人类感知AI意识之间的关系。与现有方法相比,本研究提供了一种更客观、更精细的分析框架,能够揭示不同特征的相对重要性,以及个体差异。

关键设计:关键设计包括:1) 特征选择:选择了元认知、情感等八个可能影响感知意识的关键特征。2) 问卷设计:设计了评估感知意识程度的问卷,并考虑了参与者的先验知识和使用经验。3) 回归模型:选择了合适的回归模型(具体模型类型未知)来分析特征权重。4) 聚类算法:选择了合适的聚类算法(具体算法类型未知)来识别参与者亚组。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究发现,元认知自我反思和AI自身情感的表达显著提高了人类感知到的AI意识,而对知识的过度强调则降低了它。此外,参与者被分为七个亚组,每个亚组对不同特征的权重模式存在显著差异。对LLM的较高先验知识和更频繁地使用LLM聊天机器人与对AI意识的更高总体可能性评估相关。

🎯 应用场景

该研究成果可应用于人机交互设计、AI伦理研究和公众认知引导等领域。通过理解哪些特征会影响人类对AI意识的感知,可以设计更自然、更可信赖的AI系统,并制定更合理的AI伦理规范。此外,该研究还可以帮助公众更好地理解AI技术,减少不必要的恐慌和误解。

📄 摘要(原文)

This study quantitively examines which features of AI-generated text lead humans to perceive subjective consciousness in large language model (LLM)-based AI systems. Drawing on 99 passages from conversations with Claude 3 Opus and focusing on eight features -- metacognitive self-reflection, logical reasoning, empathy, emotionality, knowledge, fluency, unexpectedness, and subjective expressiveness -- we conducted a survey with 123 participants. Using regression and clustering analyses, we investigated how these features influence participants' perceptions of AI consciousness. The results reveal that metacognitive self-reflection and the AI's expression of its own emotions significantly increased perceived consciousness, while a heavy emphasis on knowledge reduced it. Participants clustered into seven subgroups, each showing distinct feature-weighting patterns. Additionally, higher prior knowledge of LLMs and more frequent usage of LLM-based chatbots were associated with greater overall likelihood assessments of AI consciousness. This study underscores the multidimensional and individualized nature of perceived AI consciousness and provides a foundation for better understanding the psychosocial implications of human-AI interaction.