Behavioral Generative Agents for Power Dispatch and Auction

📄 arXiv: 2603.08477v1 📥 PDF

作者: Shaoze Li, Justin S. Kim, Cong Chen

分类: eess.SY

发布日期: 2026-03-09


💡 一句话要点

提出基于生成式Agent的电力调度与拍卖框架,模拟人类决策行为。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 生成式Agent 大型语言模型 电力调度 拍卖机制 上下文学习 智能电网 能源管理

📋 核心要点

  1. 传统电力调度和拍卖模型难以捕捉人类决策的复杂性和非理性行为,存在一定的局限性。
  2. 利用大型语言模型驱动的生成式Agent,通过上下文学习模拟人类在电力调度和拍卖中的决策过程。
  3. 实验表明,该方法能够使Agent在复杂场景下表现出与人类相似的行为模式,并能有效进行策略学习和调整。

📝 摘要(中文)

本文初步验证了生成式Agent能够缓解传统数学模型在电力调度和拍卖环境中对人类决策建模的僵化性。我们设计了两个概念验证的能源实验,利用大型语言模型(LLM)驱动生成式Agent。首先,构建了一个家庭电池管理测试平台,模拟随机电价和停电干预,并将LLM的决策与动态规划进行基准测试。通过引入上下文学习(ICL)模块,我们展示了更强大的推理模型发现的行为模式可以通过基于示例的提示转移到较小的LLM,引导Agent优先考虑停电后的能源储备而非短期利润。其次,研究了LLM Agent在电力网络接入的同时升价拍卖(SAA)中的行为,将其与优化基准(直接投标策略)进行比较。通过设计具有基于规则、短视和战略目标的ICL提示,我们发现结构化提示与ICL相结合使LLM Agent既能重现经济上合理的策略,又能表现出系统的行为偏差。总体而言,这些结果表明,基于LLM的Agent为电力系统应用中人类决策建模提供了一个灵活且富有表现力的测试平台。

🔬 方法详解

问题定义:现有电力调度和拍卖模型通常依赖于严格的数学优化,难以模拟人类决策中的非理性因素和行为偏差。例如,人类在停电风险下可能更倾向于储备能源而非追求短期利润,或者在拍卖中采取非最优但更稳健的策略。这些行为难以用传统模型准确捕捉。

核心思路:利用大型语言模型(LLM)的强大推理和生成能力,构建生成式Agent,通过上下文学习(ICL)模拟人类决策过程。Agent通过观察环境(如电价、停电风险)和接收提示(如策略目标),生成相应的决策(如电池充放电策略、投标价格)。这种方法允许Agent学习和适应复杂的环境,并表现出与人类相似的行为模式。

技术框架:整体框架包含两个主要实验:家庭电池管理和电力网络接入拍卖。在家庭电池管理中,Agent根据电价和停电风险决定电池的充放电策略。在电力网络接入拍卖中,Agent参与同时升价拍卖(SAA),竞争网络接入权。两个实验都使用LLM作为Agent的核心,通过ICL模块提供上下文信息和策略指导。

关键创新:关键创新在于将大型语言模型应用于电力系统决策建模,并利用上下文学习(ICL)引导Agent学习和适应环境。与传统的数学优化方法相比,该方法能够更好地模拟人类决策中的非理性因素和行为偏差。此外,通过设计不同的ICL提示,可以控制Agent的行为策略,使其表现出不同的风险偏好和目标。

关键设计:在家庭电池管理实验中,使用动态规划作为基准,评估LLM Agent的性能。ICL提示包含历史电价、停电信息和电池状态,以及期望的策略目标(如最大化利润、最小化停电风险)。在电力网络接入拍卖实验中,设计了三种ICL提示:基于规则的、短视的和战略性的,分别对应不同的投标策略。通过调整ICL提示的内容和结构,可以控制Agent的行为策略。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在家庭电池管理实验中,通过ICL,较小的LLM能够学习到更强大的推理模型发现的行为模式,优先考虑停电后的能源储备而非短期利润。在电力网络接入拍卖实验中,结构化提示与ICL相结合使LLM Agent既能重现经济上合理的策略,又能表现出系统的行为偏差,更贴近真实人类决策。

🎯 应用场景

该研究成果可应用于智能电网、能源管理和电力市场等领域。通过模拟人类决策行为,可以更好地预测电力需求、优化资源分配、设计更有效的市场机制。此外,该方法还可以用于评估不同政策和技术对电力系统行为的影响,为决策者提供参考。

📄 摘要(原文)

This paper presents positive initial evidence that generative agents can relax the rigidity of traditional mathematical models for human decision-making in power dispatch and auction settings. We design two proof-of-concept energy experiments with generative agents powered by a large language model (LLM). First, we construct a home battery management testbed with stochastic electricity prices and blackout interventions, and benchmark LLM decisions against dynamic programming. By incorporating an in-context learning (ICL) module, we show that behavioral patterns discovered by a stronger reasoning model can be transferred to a smaller LLM via example-based prompting, leading agents to prioritize post-blackout energy reserves over short-term profit. Second, we study LLM agents in simultaneous ascending auctions (SAA) for power network access, comparing their behavior with an optimization benchmark, the straightforward bidding strategy. By designing ICL prompts with rule-based, myopic, and strategic objectives, we find that structured prompting combined with ICL enables LLM agents to both reproduce economically rational strategies and exhibit systematic behavioral deviations. Overall, these results suggest that LLM-powered agents provide a flexible and expressive testbed for modeling human decision-making in power system applications.