Emergent Social Dynamics of LLM Agents in the El Farol Bar Problem

📄 arXiv: 2509.04537v3 📥 PDF

作者: Ryosuke Takata, Atsushi Masumori, Takashi Ikegami

分类: cs.MA, cs.AI, cs.CY

发布日期: 2025-09-04 (更新: 2025-09-17)


💡 一句话要点

利用LLM Agent在El Farol酒吧问题中探索涌现的社会动态

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM Agent 社会动态 El Farol酒吧问题 群体决策 社会模拟

📋 核心要点

  1. 现有博弈论模型难以捕捉人类社会行为中复杂的社会动机和文化因素。
  2. 利用LLM Agent模拟El Farol酒吧问题,观察其在社会互动中涌现的决策模式。
  3. 实验发现LLM Agent展现出平衡理性与社会动机的行为,更贴近真实人类决策。

📝 摘要(中文)

本文研究了大型语言模型(LLM)Agent在空间扩展的El Farol酒吧问题中涌现的社会动态,观察它们如何自主地应对这个经典的社会困境。研究结果表明,LLM Agent自发地产生了去酒吧的动机,并通过集体行动改变了它们的决策方式。同时,观察到LLM Agent并没有完全解决这个问题,而是表现得更像人类。这些发现揭示了外部激励(如提示中规定的60%阈值)和内部激励(源于预训练的文化编码的社会偏好)之间复杂的相互作用,表明LLM Agent自然地平衡了形式化的博弈论理性与表征人类行为的社会动机。这些发现表明,LLM Agent可以实现一种新的群体决策模型,而这种模型在之前的博弈论问题设置中是无法处理的。

🔬 方法详解

问题定义:论文旨在研究在经典的El Farol酒吧问题中,当参与者是LLM Agent时,是否会涌现出类似人类的社会行为和决策模式。传统的博弈论模型往往假设参与者是完全理性的,而忽略了社会动机、文化背景等因素对决策的影响。因此,现有的方法难以模拟真实世界中复杂的群体决策过程。

核心思路:论文的核心思路是利用LLM Agent的自然语言理解和生成能力,赋予其一定的社会认知和推理能力,并将其置于El Farol酒吧问题的环境中。通过观察LLM Agent的决策行为,分析其如何平衡外部激励(例如避免酒吧过度拥挤)和内部激励(例如社会偏好),从而揭示其涌现的社会动态。

技术框架:整体框架包括以下几个主要步骤:1) 构建El Farol酒吧问题的模拟环境,定义参与者数量、酒吧容量等参数;2) 设计LLM Agent,赋予其决策能力和一定的社会认知;3) 通过prompt引导LLM Agent参与El Farol酒吧问题,并记录其决策过程;4) 分析LLM Agent的决策行为,观察其是否展现出类似人类的社会行为模式。

关键创新:论文的关键创新在于将LLM Agent引入到经典的社会困境问题中,并观察其涌现的社会动态。与传统的基于规则或模型的Agent不同,LLM Agent具有更强的自然语言理解和生成能力,可以更好地模拟人类的社会认知和推理过程。此外,论文还关注了外部激励和内部激励对LLM Agent决策的影响,揭示了其平衡理性与社会动机的行为模式。

关键设计:论文的关键设计包括:1) 精心设计的prompt,用于引导LLM Agent参与El Farol酒吧问题,并赋予其一定的社会认知;2) 详细记录LLM Agent的决策过程,包括其选择去或不去酒吧的原因;3) 使用统计分析方法,分析LLM Agent的决策行为,并观察其是否展现出类似人类的社会行为模式。具体的参数设置和网络结构等技术细节在论文中可能没有详细描述,需要查阅原文。

📊 实验亮点

实验结果表明,LLM Agent在El Farol酒吧问题中展现出类似人类的社会行为模式,例如自发地产生去酒吧的动机,并通过集体行动改变决策方式。虽然LLM Agent没有完全解决问题,但其行为更接近真实人类的决策过程。这些发现表明LLM Agent能够平衡理性与社会动机,为群体决策建模提供了一种新的思路。

🎯 应用场景

该研究成果可应用于模拟和预测复杂社会系统中的群体行为,例如交通拥堵、资源分配、舆情传播等。通过构建基于LLM Agent的仿真模型,可以更好地理解人类社会行为的内在机制,并为政策制定和社会治理提供决策支持。此外,该研究还可以促进人机协作领域的发展,例如设计更智能的协作机器人,使其能够更好地理解人类的社会意图,并与人类进行有效的沟通和协作。

📄 摘要(原文)

We investigate the emergent social dynamics of Large Language Model (LLM) agents in a spatially extended El Farol Bar problem, observing how they autonomously navigate this classic social dilemma. As a result, the LLM agents generated a spontaneous motivation to go to the bar and changed their decision making by becoming a collective. We also observed that the LLM agents did not solve the problem completely, but rather behaved more like humans. These findings reveal a complex interplay between external incentives (prompt-specified constraints such as the 60% threshold) and internal incentives (culturally-encoded social preferences derived from pre-training), demonstrating that LLM agents naturally balance formal game-theoretic rationality with social motivations that characterize human behavior. These findings suggest that a new model of group decision making, which could not be handled in the previous game-theoretic problem setting, can be realized by LLM agents.