Large Language Models Align with the Human Brain during Creative Thinking

📄 arXiv: 2604.03480 📥 PDF

作者: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty

分类: bio.NC, cs.AI, cs.CL

发布日期: 2026-04-07


💡 一句话要点

探讨大语言模型与人脑在创造性思维中的一致性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 创造性思维 脑-模型对齐 发散性思维 fMRI 代表性相似性分析 后训练目标 神经几何

📋 核心要点

  1. 现有脑-LLM对齐研究主要集中在非创造性任务,缺乏对创造性思维过程的深入探讨。
  2. 本文通过fMRI数据分析,研究大语言模型在创造性思维中的脑对齐,探索模型大小与创意独特性对对齐的影响。
  3. 研究结果显示,模型大小与脑-LLM对齐呈正相关,且后训练目标能够选择性地重塑模型表示,影响其与人脑的对齐程度。

📝 摘要(中文)

创造性思维是人类认知的基本方面,而发散性思维被广泛认为是其核心生成引擎。近期,大语言模型(LLMs)在发散性思维测试中表现出色,且研究表明,任务表现更高的模型与人脑活动的对齐程度更高。然而,现有的脑-LLM对齐研究主要集中在被动、非创造性任务上。本文利用170名参与者在替代用途任务(AUT)中的fMRI数据,探讨了创造性思维中的脑对齐。研究发现,脑-LLM对齐与模型大小及创意独特性相关,且效果在创造过程早期最为显著。后续训练目标以功能选择性方式塑造对齐,表明后训练目标在重塑LLM表示时与人类创造性思维的神经几何关系密切相关。

🔬 方法详解

问题定义:本文旨在解决现有脑-LLM对齐研究缺乏对创造性思维的关注这一问题。现有方法主要集中在非创造性任务,未能揭示创造性思维中的脑活动与模型表示之间的关系。

核心思路:通过使用fMRI数据,分析参与者在替代用途任务中的脑活动,并与不同规模的LLM表示进行对比,探索其在创造性思维中的对齐程度。

技术框架:研究采用了代表性相似性分析(RSA),分析170名参与者在AUT任务中的脑响应,并提取不同规模(270M-72B)的LLM表示进行对齐测量。

关键创新:本研究首次探讨了脑-LLM对齐在创造性思维中的表现,发现模型大小和创意独特性对对齐有显著影响,且后训练目标能够选择性地重塑模型表示。

关键设计:研究中使用了不同规模的LLM,并通过后训练目标优化模型,具体包括创造性优化的Llama-3.1-8B-Instruct模型和人类行为微调模型,展示了不同训练目标对对齐的影响。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,脑-LLM对齐与模型大小呈正相关,且在创造过程早期效果最为显著。创造性优化模型在高创造性神经响应中保持对齐,同时降低低创造性响应的对齐,显示出后训练目标的选择性影响。

🎯 应用场景

该研究为理解大语言模型在创造性思维中的应用提供了新的视角,潜在应用于创意生成、教育和心理学等领域。通过优化模型的训练目标,可以提升其在创造性任务中的表现,推动人机协作的进步。

📄 摘要(原文)

Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized \texttt{Llama-3.1-8B-Instruct} preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.