How AI Agents Follow the Herd of AI? Network Effects, History, and Machine Optimism

📄 arXiv: 2512.11943v1 📥 PDF

作者: Yu Liu, Wenwen Li, Yifan Dou, Guangnan Ye

分类: cs.MA, cs.AI, econ.GN

发布日期: 2025-12-12

备注: 7 pages, 5 figures


💡 一句话要点

研究AI智能体在网络效应博弈中的决策行为,揭示历史数据对群体决策的影响

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多智能体系统 网络效应 大型语言模型 决策博弈 历史数据 AI乐观 群体智能 重复博弈

📋 核心要点

  1. 现有方法在多智能体系统中,对普遍存在的网络效应博弈缺乏深入研究,难以理解AI智能体的决策机制。
  2. 论文提出一种基于LLM智能体的新颖工作流程,通过操纵价格轨迹和网络效应强度,模拟重复决策场景。
  3. 实验表明,历史数据的有序性影响LLM的推理,强网络效应下会产生“AI乐观”,随机历史数据则会扰乱收敛。

📝 摘要(中文)

本研究旨在理解多智能体框架下AI智能体的决策过程,尤其是在网络效应驱动的战略互动中。尽管网络效应普遍存在于现实世界,但在多智能体系统中却鲜有研究。我们设计了一种新颖的工作流程,利用基于大型语言模型(LLM)的智能体在重复决策场景中进行实验,并系统地操纵价格轨迹(固定、上升、下降、随机)和网络效应强度。研究发现:首先,在缺乏历史数据的情况下,智能体无法推断出均衡。其次,有序的历史序列(如价格上涨)在弱网络效应下能够实现部分收敛,但强网络效应会引发持续的“AI乐观”——即使存在矛盾的证据,智能体也会高估参与度。第三,随机化的历史数据完全扰乱了收敛,表明数据中的时间连贯性会影响LLM的推理,这与人类不同。这些结果突显了一种范式转变:在AI介导的系统中,均衡结果不仅取决于激励,还取决于历史数据的组织方式,而这对于人类来说是不可能实现的。

🔬 方法详解

问题定义:论文旨在研究在具有网络效应的博弈中,多个AI智能体如何进行决策。现有方法未能充分考虑网络效应的影响,以及历史数据在AI智能体决策中的作用。特别是在重复博弈中,AI智能体如何根据历史经验调整策略,并最终达到均衡状态,是一个尚未充分探索的问题。

核心思路:论文的核心思路是利用大型语言模型(LLM)构建AI智能体,并让这些智能体在模拟的网络效应博弈中进行重复决策。通过系统地操纵历史数据的特征(例如,价格轨迹的模式),研究这些特征如何影响AI智能体的决策行为和最终的均衡结果。这种方法能够揭示AI智能体在复杂环境下的推理和学习机制。

技术框架:整体框架包含以下几个主要模块:1) 基于LLM的AI智能体:使用LLM作为智能体的决策引擎,赋予其理解和生成自然语言的能力,从而能够进行复杂的推理和决策。2) 网络效应博弈环境:构建一个模拟的网络效应博弈环境,其中智能体的收益取决于其他智能体的参与程度。3) 历史数据生成模块:生成不同模式的历史数据,例如固定价格、上升价格、下降价格和随机价格。4) 重复决策模块:让AI智能体在博弈环境中进行重复决策,并记录其决策过程和收益。5) 结果分析模块:分析AI智能体的决策行为和最终的均衡结果,并研究历史数据特征的影响。

关键创新:论文的关键创新在于:1) 将LLM应用于多智能体博弈研究,探索了LLM在复杂决策环境下的能力。2) 系统地研究了历史数据特征对AI智能体决策的影响,揭示了时间连贯性在LLM推理中的重要作用。3) 发现了“AI乐观”现象,即在强网络效应下,AI智能体即使面对矛盾的证据,仍然会高估参与度。

关键设计:论文的关键设计包括:1) 使用不同的价格轨迹模式(固定、上升、下降、随机)来模拟不同的历史数据特征。2) 通过调整网络效应强度来控制智能体之间的相互依赖程度。3) 使用重复博弈来模拟智能体的学习过程。4) 通过分析智能体的决策行为和收益,来评估不同历史数据特征和网络效应强度对均衡结果的影响。

📊 实验亮点

实验结果表明,在没有历史数据的情况下,AI智能体无法推断出均衡。有序的历史序列在弱网络效应下能够实现部分收敛,但在强网络效应下会引发“AI乐观”。随机化的历史数据完全扰乱了收敛,突显了时间连贯性在LLM推理中的重要性。这些发现与人类的决策行为存在显著差异。

🎯 应用场景

该研究成果可应用于AI驱动的经济系统设计、社交网络行为预测、以及理解和优化AI在复杂环境下的决策过程。例如,可以帮助设计更有效的推荐系统,预测市场趋势,或优化资源分配策略。此外,该研究也为理解AI在群体行为中的作用提供了新的视角。

📄 摘要(原文)

Understanding decision-making in multi-AI-agent frameworks is crucial for analyzing strategic interactions in network-effect-driven contexts. This study investigates how AI agents navigate network-effect games, where individual payoffs depend on peer participatio--a context underexplored in multi-agent systems despite its real-world prevalence. We introduce a novel workflow design using large language model (LLM)-based agents in repeated decision-making scenarios, systematically manipulating price trajectories (fixed, ascending, descending, random) and network-effect strength. Our key findings include: First, without historical data, agents fail to infer equilibrium. Second, ordered historical sequences (e.g., escalating prices) enable partial convergence under weak network effects but strong effects trigger persistent "AI optimism"--agents overestimate participation despite contradictory evidence. Third, randomized history disrupts convergence entirely, demonstrating that temporal coherence in data shapes LLMs' reasoning, unlike humans. These results highlight a paradigm shift: in AI-mediated systems, equilibrium outcomes depend not just on incentives, but on how history is curated, which is impossible for human.