Psychologically Enhanced AI Agents

📄 arXiv: 2509.04343v1 📥 PDF

作者: Maciej Besta, Shriram Chandran, Robert Gerstenberger, Mathis Lindner, Marcin Chrapek, Sebastian Hermann Martschat, Taraneh Ghandi, Patrick Iff, Hubert Niewiadomski, Piotr Nyczyk, Jürgen Müller, Torsten Hoefler

分类: cs.AI, cs.CL, cs.CY, cs.HC, cs.MA

发布日期: 2025-09-04


💡 一句话要点

提出MBTI-in-Thoughts框架,通过心理学人格塑造提升LLM Agent效能

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM Agent 人格化AI 心理学建模 Prompt工程 多Agent系统

📋 核心要点

  1. 现有LLM Agent缺乏对行为的细粒度控制,难以模拟人类复杂心理特征,导致任务表现受限。
  2. MBTI-in-Thoughts框架通过prompt工程,将MBTI人格类型注入LLM Agent,实现对其认知和情感行为的有效控制。
  3. 实验表明,不同人格类型的Agent在叙事生成和博弈论等任务中表现出可预测的行为偏差,验证了框架的有效性。

📝 摘要(中文)

本文介绍了一种名为MBTI-in-Thoughts的框架,该框架通过心理学人格条件反射来增强大型语言模型(LLM)Agent的有效性。该方法借鉴了Myers-Briggs类型指标(MBTI),通过提示工程为Agent注入不同的人格原型,从而能够控制其在人类心理学、认知和情感两个基本轴上的行为。研究表明,这种人格启动可以在各种任务中产生一致且可解释的行为偏差:情感表达型Agent擅长叙事生成,而分析型Agent在博弈论环境中采取更稳定的策略。该框架支持实验结构化的多Agent通信协议,并揭示了交互前的自我反思可以提高合作和推理质量。为了确保特质持久性,我们集成了官方的16Personalities测试进行自动验证。虽然我们的重点是MBTI,但我们表明我们的方法可以无缝地推广到其他心理学框架,如Big Five、HEXACO或Enneagram。通过桥接心理学理论和LLM行为设计,我们为心理学增强的AI Agent奠定了基础,而无需任何微调。

🔬 方法详解

问题定义:现有的大型语言模型(LLM)Agent在行为控制方面存在不足,难以模拟人类复杂的心理特征,导致在特定任务中表现不佳。例如,在需要情感表达的任务中,缺乏情感意识的Agent可能无法生成引人入胜的叙事;而在需要理性分析的任务中,情绪化的Agent可能无法做出最优决策。因此,如何赋予LLM Agent可控的、具有心理学基础的人格特征,是一个亟待解决的问题。

核心思路:本文的核心思路是通过心理学人格理论(特别是MBTI)来指导LLM Agent的行为设计。通过prompt工程,将不同的人格类型注入到Agent的prompt中,从而影响Agent的认知和情感行为。这种方法无需对LLM进行微调,而是利用LLM强大的上下文学习能力,使其在特定任务中表现出与特定人格类型相符的行为模式。

技术框架:MBTI-in-Thoughts框架主要包含以下几个模块:1) 人格类型选择:基于MBTI或其他心理学框架(如Big Five、HEXACO、Enneagram)选择特定的人格类型。2) Prompt工程:根据选定的人格类型,设计包含人格描述的prompt,作为Agent的初始输入。3) 任务执行:Agent接收prompt和任务描述,生成相应的输出。4) 行为验证:使用16Personalities测试等工具,自动验证Agent的行为是否符合其人格类型。5) 多Agent交互:支持多个具有不同人格类型的Agent进行交互,并观察其交互行为。

关键创新:该论文的关键创新在于将心理学人格理论与LLM Agent的行为设计相结合,提出了一种无需微调即可实现人格化Agent的方法。与现有方法相比,该方法具有更高的灵活性和可解释性,可以方便地控制Agent的行为,并探索不同人格类型在不同任务中的表现。此外,该框架还支持多Agent交互,为研究Agent之间的合作和竞争行为提供了新的工具。

关键设计:在prompt工程方面,论文使用了详细的人格描述,包括认知风格、情感偏好、行为模式等。为了确保特质持久性,论文集成了官方的16Personalities测试进行自动验证。在多Agent交互方面,论文设计了结构化的通信协议,并研究了自我反思对合作和推理质量的影响。具体的参数设置和网络结构取决于所使用的LLM,论文主要关注prompt的设计和人格类型的选择。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,情感表达型Agent在叙事生成任务中表现更佳,而分析型Agent在博弈论环境中采取更稳定的策略。此外,研究发现,在多Agent交互中,交互前的自我反思可以显著提高合作和推理质量。通过16Personalities测试验证了Agent行为与人格类型的一致性。

🎯 应用场景

该研究成果可应用于多个领域,如游戏AI(创建具有鲜明个性的NPC)、教育(个性化辅导)、客户服务(根据客户性格提供定制化服务)、心理咨询(模拟不同人格类型的患者)等。通过赋予AI Agent更丰富的人格特征,可以提升其在各种任务中的表现,并促进人机交互的自然性和有效性。

📄 摘要(原文)

We introduce MBTI-in-Thoughts, a framework for enhancing the effectiveness of Large Language Model (LLM) agents through psychologically grounded personality conditioning. Drawing on the Myers-Briggs Type Indicator (MBTI), our method primes agents with distinct personality archetypes via prompt engineering, enabling control over behavior along two foundational axes of human psychology, cognition and affect. We show that such personality priming yields consistent, interpretable behavioral biases across diverse tasks: emotionally expressive agents excel in narrative generation, while analytically primed agents adopt more stable strategies in game-theoretic settings. Our framework supports experimenting with structured multi-agent communication protocols and reveals that self-reflection prior to interaction improves cooperation and reasoning quality. To ensure trait persistence, we integrate the official 16Personalities test for automated verification. While our focus is on MBTI, we show that our approach generalizes seamlessly to other psychological frameworks such as Big Five, HEXACO, or Enneagram. By bridging psychological theory and LLM behavior design, we establish a foundation for psychologically enhanced AI agents without any fine-tuning.