Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning
作者: Thuy Ngoc Nguyen, Kasturi Jamale, Cleotilde Gonzalez
分类: cs.AI
发布日期: 2024-07-12 (更新: 2024-08-05)
💡 一句话要点
利用大型语言模型和认知实例学习预测和理解人类行为决策
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 认知实例学习 人类行为预测 序列决策 损失厌恶
📋 核心要点
- 现有AI系统在理解和预测人类行为方面存在不足,尤其是在连续决策任务中,难以捕捉人类的探索性和偏差。
- 该论文利用大型语言模型的推理和生成能力,结合认知实例学习模型,来预测人类在序列决策任务中的行为。
- 实验表明,LLMs能快速整合反馈提高预测精度,而IBL模型更擅长捕捉人类的探索行为和损失厌恶偏差。
📝 摘要(中文)
大型语言模型(LLMs)已展示了其在各种任务中的能力,从语言翻译到复杂推理。理解和预测人类行为和偏见对于人工智能(AI)辅助系统提供有用的帮助至关重要,但这些模型是否能实现这一点仍然是一个悬而未决的问题。本文利用LLMs的推理和生成能力来预测人类在两个连续决策任务中的行为,从而弥补了这一差距。这些任务包括在利用性行为和探索性行为之间取得平衡,以及处理延迟反馈,这对于模拟现实生活中的决策过程至关重要。我们将LLMs的性能与认知实例学习(IBL)模型进行了比较,该模型模仿人类的经验决策。我们的研究结果表明,LLMs擅长快速整合反馈以提高预测准确性。相比之下,认知IBL模型更好地解释了人类的探索行为,并有效地捕捉了损失厌恶偏差,即倾向于选择具有较少步进成本惩罚的次优目标,而不是探索以找到最优选择,即使经验有限。结果突出了将LLMs与认知架构集成的优势,表明这种协同作用可以增强对复杂人类决策模式的建模和理解。
🔬 方法详解
问题定义:论文旨在解决人工智能系统难以准确预测和理解人类在连续决策任务中的行为的问题。现有方法,如传统的机器学习模型,难以捕捉人类决策过程中的探索性、偏差(如损失厌恶)以及对延迟反馈的敏感性。这些痛点限制了AI辅助系统在实际应用中的有效性。
核心思路:论文的核心思路是将大型语言模型(LLMs)的强大推理和生成能力与认知实例学习(IBL)模型相结合,从而更全面地模拟和预测人类的决策行为。LLMs擅长快速学习和适应新信息,而IBL模型则能更好地模拟人类基于经验的决策过程和认知偏差。
技术框架:该研究的技术框架包括两个主要的组成部分:1) 使用LLMs进行行为预测;2) 使用认知IBL模型进行行为预测。研究人员设计了两个连续决策任务,涉及探索与利用的平衡以及延迟反馈的处理。然后,他们将LLMs和IBL模型应用于这些任务,并比较它们的预测性能以及对人类行为特征的捕捉能力。
关键创新:该研究的关键创新在于将LLMs应用于人类行为预测,并将其与认知模型(IBL)进行对比分析。这使得研究人员能够深入了解LLMs在模拟人类决策过程中的优势和局限性,并探索将LLMs与认知架构相结合的可能性。此外,该研究还揭示了LLMs和IBL模型在捕捉不同类型的人类行为特征方面的差异。
关键设计:研究中使用的LLMs的具体型号未知,但强调了利用其推理和生成能力。IBL模型则基于标准的认知架构,参数设置可能根据具体任务进行调整。两个连续决策任务的设计旨在模拟现实生活中的决策场景,并包含探索、利用和延迟反馈等关键要素。具体的损失函数和网络结构等技术细节未在摘要中详细说明,属于未知信息。
🖼️ 关键图片
📊 实验亮点
实验结果表明,LLMs在快速整合反馈以提高预测准确性方面表现出色。相比之下,认知IBL模型更好地解释了人类的探索行为,并有效地捕捉了损失厌恶偏差。这表明LLMs和IBL模型在模拟人类决策过程的不同方面具有互补优势。
🎯 应用场景
该研究成果可应用于开发更智能、更人性化的AI辅助系统,例如个性化推荐系统、智能辅导系统和人机协作系统。通过更准确地预测和理解人类行为,这些系统能够提供更有效的帮助和支持,从而提高用户满意度和工作效率。此外,该研究还有助于深入理解人类决策过程,为认知科学和行为经济学等领域提供新的视角。
📄 摘要(原文)
Large Language Models (LLMs) have demonstrated their capabilities across various tasks, from language translation to complex reasoning. Understanding and predicting human behavior and biases are crucial for artificial intelligence (AI) assisted systems to provide useful assistance, yet it remains an open question whether these models can achieve this. This paper addresses this gap by leveraging the reasoning and generative capabilities of the LLMs to predict human behavior in two sequential decision-making tasks. These tasks involve balancing between exploitative and exploratory actions and handling delayed feedback, both essential for simulating real-life decision processes. We compare the performance of LLMs with a cognitive instance-based learning (IBL) model, which imitates human experiential decision-making. Our findings indicate that LLMs excel at rapidly incorporating feedback to enhance prediction accuracy. In contrast, the cognitive IBL model better accounts for human exploratory behaviors and effectively captures loss aversion bias, i.e., the tendency to choose a sub-optimal goal with fewer step-cost penalties rather than exploring to find the optimal choice, even with limited experience. The results highlight the benefits of integrating LLMs with cognitive architectures, suggesting that this synergy could enhance the modeling and understanding of complex human decision-making patterns.