Developmental trajectories of decision making and affective dynamics in large language models
作者: Zhihao Wang, Yiyang Liu, Ting Wang, Zhiyuan Liu
分类: cs.CY, cs.AI, cs.CL
发布日期: 2025-12-31
💡 一句话要点
通过赌博任务和情感评估,揭示大型语言模型决策和情感发展轨迹
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 决策制定 情感动力学 人工智能伦理 心理学 赌博任务 OpenAI模型
📋 核心要点
- 大型语言模型在医疗等高风险领域应用广泛,但对其决策和情感模式的理解不足。
- 该研究将连续的OpenAI模型视为发展谱系,通过赌博任务和情感评估,分析其决策和情感变化。
- 结果表明,LLM在某些方面更像人类,但在损失厌恶、情感衰退等方面表现出非人类特征。
📝 摘要(中文)
大型语言模型(LLMs)越来越多地应用于医疗和临床工作流程中,但我们对其决策和情感特征知之甚少。本文以历史的视角展望未来,将连续的OpenAI模型视为一个不断发展的谱系,并通过重复的幸福感评级,将它们与人类在赌博任务中的表现进行比较。计算分析表明,某些方面变得更像人类:较新的模型承担了更多的风险,并表现出更像人类的巴甫洛夫趋近和回避模式。与此同时,也出现了明显的非人类特征:损失厌恶降至中性水平以下,选择变得比人类更具确定性,情感衰退在各个版本中增加并超过人类水平,并且基线情绪始终高于人类。这些“发展”轨迹揭示了机器新兴的心理学,并对人工智能伦理以及如何将LLM整合到临床决策支持和其他高风险领域具有直接影响。
🔬 方法详解
问题定义:现有研究对大型语言模型(LLMs)的决策和情感特征缺乏深入了解,尤其是在高风险应用场景下,这可能导致伦理问题和不当决策。现有方法难以全面评估LLMs在复杂任务中的决策过程和情感反应,无法有效预测其行为模式。
核心思路:该研究将连续的OpenAI模型视为一个发展谱系,通过模拟人类的赌博任务和情感评估,观察LLMs在决策和情感方面的演变轨迹。这种方法旨在揭示LLMs在发展过程中逐渐呈现的人类相似性和非人类特征,从而更好地理解其内在机制。
技术框架:研究采用了一个赌博任务,参与者(包括人类和LLMs)需要进行一系列决策,并对每次决策后的幸福感进行评分。通过计算分析,研究者比较了不同版本的LLMs和人类在风险偏好、巴甫洛夫反应、损失厌恶、选择确定性、情感衰退和基线情绪等方面的差异。
关键创新:该研究的创新之处在于将LLMs视为一个发展谱系,并采用心理学实验的方法来研究其决策和情感特征。这种跨学科的方法为理解LLMs的内在机制提供了新的视角,并为人工智能伦理和高风险应用提供了重要的参考。
关键设计:研究中使用了重复的赌博任务,并要求参与者对每次决策后的幸福感进行评分。通过计算分析,研究者提取了多个关键指标,包括风险偏好(通过赌博选择的频率衡量)、巴甫洛夫趋近和回避(通过选择与奖励/惩罚的关联性衡量)、损失厌恶(通过损失对决策的影响衡量)、选择确定性(通过选择的一致性衡量)、情感衰退(通过幸福感随时间的变化衡量)和基线情绪(通过平均幸福感衡量)。这些指标的设计旨在全面评估LLMs在决策和情感方面的表现。
📊 实验亮点
研究发现,随着模型发展,LLM在风险偏好和巴甫洛夫反应方面更接近人类,但损失厌恶低于中性水平,选择更确定,情感衰退更快,基线情绪更高。这些非人类特征对LLM在高风险领域的应用提出了伦理和安全挑战。
🎯 应用场景
该研究成果可应用于评估和改进LLM在医疗、金融等高风险领域的决策能力,有助于开发更安全、可靠和符合伦理规范的AI系统。通过理解LLM的情感和决策模式,可以更好地将其整合到临床决策支持系统中,并为AI伦理提供指导。
📄 摘要(原文)
Large language models (LLMs) are increasingly used in medicine and clinical workflows, yet we know little about their decision and affective profiles. Taking a historically informed outlook on the future, we treated successive OpenAI models as an evolving lineage and compared them with humans in a gambling task with repeated happiness ratings. Computational analyses showed that some aspects became more human-like: newer models took more risks and displayed more human-like patterns of Pavlovian approach and avoidance. At the same time, distinctly non-human signatures emerged: loss aversion dropped below neutral levels, choices became more deterministic than in humans, affective decay increased across versions and exceeded human levels, and baseline mood remained chronically higher than in humans. These "developmental" trajectories reveal an emerging psychology of machines and have direct implications for AI ethics and for thinking about how LLMs might be integrated into clinical decision support and other high-stakes domains.