On the limits of agency in agent-based models

📄 arXiv: 2409.10568v3 📥 PDF

作者: Ayush Chopra, Shashank Kumar, Nurullah Giray-Kuru, Ramesh Raskar, Arnau Quera-Bofarull

分类: cs.MA, cs.AI

发布日期: 2024-09-14 (更新: 2024-11-10)


💡 一句话要点

提出LLM原型方法,高效集成LLM到ABM中,用于大规模自适应Agent仿真。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Agent建模 大型语言模型 自适应Agent 大规模仿真 COVID-19 政策评估 计算社会科学

📋 核心要点

  1. 传统ABM在模拟大规模Agent时面临计算瓶颈和Agent行为过于简化的挑战,限制了其在复杂系统分析中的应用。
  2. 论文提出LLM原型方法,通过平衡Agent行为复杂度和计算效率,将LLM集成到ABM中,实现大规模自适应Agent仿真。
  3. 通过COVID-19疫情在纽约市的仿真实验,验证了该方法在预测和反事实分析方面的有效性,并开源了相关框架。

📝 摘要(中文)

基于Agent的建模(ABM)为复杂系统提供了强大的洞察力,但其在实际应用中受到计算约束和Agent行为简单化的限制,尤其是在模拟大型群体时。大型语言模型(LLM)的最新进展可以增强ABM的自适应Agent能力,但将其集成到大规模仿真中仍然具有挑战性。本文提出了一种新颖的方法,通过高效地将LLM集成到ABM中来弥合这一差距,从而能够模拟数百万个自适应Agent。我们提出了LLM原型,这是一种平衡行为复杂性和计算效率的技术,允许在大型仿真中进行细致的Agent行为。我们的分析探讨了仿真规模和个体Agent表达能力之间的关键权衡,比较了从简单的基于启发式的Agent到完全自适应的LLM驱动的Agent的不同Agent架构。我们通过COVID-19大流行的案例研究展示了我们方法的实际应用,模拟了代表纽约市的840万个Agent,并捕捉了健康行为和经济结果之间复杂的相互作用。我们的方法显著增强了ABM在预测和反事实分析方面的能力,解决了政策设计中历史数据的局限性。通过在开源框架中实施这些改进,我们促进了LLM原型在各种ABM应用中的采用。我们的结果表明,LLM原型可以显著提高大规模ABM的真实性和实用性,同时保持计算可行性,为建模复杂的社会挑战和为数据驱动的政策决策提供信息开辟了新的途径。

🔬 方法详解

问题定义:现有ABM在模拟大规模人群时,由于计算资源的限制,Agent的行为通常被简化为简单的启发式规则,无法充分捕捉真实世界中个体行为的复杂性和适应性。将LLM引入ABM可以提升Agent的智能水平,但直接应用会导致计算成本过高,难以扩展到大规模仿真。

核心思路:论文的核心思路是提出“LLM原型”的概念,即预先定义一组具有代表性的Agent行为模式(原型),并使用LLM来生成这些原型的行为策略。在仿真过程中,大量的Agent可以根据其属性选择合适的原型,从而在计算效率和Agent行为的丰富性之间取得平衡。

技术框架:该方法的技术框架主要包含以下几个阶段:1) 原型定义:根据应用场景确定Agent行为的典型模式。2) LLM策略生成:利用LLM为每个原型生成相应的行为策略,例如,在COVID-19仿真中,可以生成“谨慎”、“中等”、“冒险”等不同风险偏好的原型。3) Agent分配:根据Agent的属性(例如,年龄、收入、健康状况)将其分配到最合适的原型。4) 仿真执行:在仿真过程中,Agent根据其所属原型的策略进行决策和行动。

关键创新:该方法最重要的创新点在于提出了LLM原型的概念,通过将LLM的应用范围限制在原型策略生成阶段,显著降低了计算成本,使得大规模自适应Agent仿真成为可能。与直接使用LLM控制每个Agent的行为相比,该方法在计算效率上具有显著优势。

关键设计:在COVID-19仿真中,论文使用了GPT-3等LLM来生成不同风险偏好Agent的行为策略。Agent的属性包括年龄、收入、健康状况等。仿真过程中,Agent会根据疫情发展、政策变化等因素动态调整其行为。论文还设计了相应的评估指标,用于衡量不同干预措施的效果。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文通过模拟纽约市的COVID-19疫情,展示了LLM原型方法的有效性。实验结果表明,与传统的基于启发式规则的ABM相比,使用LLM原型的ABM能够更准确地捕捉疫情的传播动态和经济影响。例如,该方法能够预测不同封锁政策对经济的影响,并为制定更合理的防控措施提供参考。

🎯 应用场景

该研究成果可广泛应用于社会科学、经济学、公共卫生等领域,例如,模拟城市交通拥堵、预测金融市场波动、评估公共政策效果等。通过构建更真实、更精细的Agent模型,可以为决策者提供更可靠的依据,从而制定更有效的政策。

📄 摘要(原文)

Agent-based modeling (ABM) offers powerful insights into complex systems, but its practical utility has been limited by computational constraints and simplistic agent behaviors, especially when simulating large populations. Recent advancements in large language models (LLMs) could enhance ABMs with adaptive agents, but their integration into large-scale simulations remains challenging. This work introduces a novel methodology that bridges this gap by efficiently integrating LLMs into ABMs, enabling the simulation of millions of adaptive agents. We present LLM archetypes, a technique that balances behavioral complexity with computational efficiency, allowing for nuanced agent behavior in large-scale simulations. Our analysis explores the crucial trade-off between simulation scale and individual agent expressiveness, comparing different agent architectures ranging from simple heuristic-based agents to fully adaptive LLM-powered agents. We demonstrate the real-world applicability of our approach through a case study of the COVID-19 pandemic, simulating 8.4 million agents representing New York City and capturing the intricate interplay between health behaviors and economic outcomes. Our method significantly enhances ABM capabilities for predictive and counterfactual analyses, addressing limitations of historical data in policy design. By implementing these advances in an open-source framework, we facilitate the adoption of LLM archetypes across diverse ABM applications. Our results show that LLM archetypes can markedly improve the realism and utility of large-scale ABMs while maintaining computational feasibility, opening new avenues for modeling complex societal challenges and informing data-driven policy decisions.