Towards Microgrid Resilience Enhancement via Mobile Power Sources and Repair Crews: A Multi-Agent Reinforcement Learning Approach

📄 arXiv: 2507.18095v1 📥 PDF

作者: Yi Wang, Dawei Qiu, Fei Teng, Goran Strbac

分类: eess.SY

发布日期: 2025-07-24

DOI: 10.1109/TPWRS.2023.3240479


💡 一句话要点

提出一种分层多智能体强化学习方法,用于通信受损情况下移动电源和维修队伍的协同调度,提升微电网弹性。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 微电网弹性 移动电源 维修队伍 多智能体强化学习 去中心化调度

📋 核心要点

  1. 现有方法在通信完好的前提下集中式调度移动电源和维修队伍,无法应对极端事件造成的通信中断。
  2. 提出一种分层多智能体强化学习方法,在高层切换电力和运输网络决策,低层进行连续调度和离散路由。
  3. 通过嵌入式函数封装系统动态,增强学习的稳定性和可扩展性,并在IEEE 33和69节点网络上验证了有效性。

📝 摘要(中文)

移动电源(MPSs)作为关键资源已逐渐部署在微电网中,与维修队伍(RCs)协同工作,以增强微电网的弹性,这得益于它们在处理复杂耦合的电力-运输系统中的灵活性和移动性。然而,以往的工作以集中式的方式解决MPSs和RCs的协同调度问题,并假设事件发生后通信网络仍然完全正常运行。越来越多的证据表明,某些极端事件会损坏或降低通信基础设施的性能,这使得集中式决策变得不切实际。为了填补这一空白,本文提出了一个去中心化框架,用于解决MPSs和RCs的弹性驱动调度问题。为了解决这个问题,提出了一种具有两层框架的分层多智能体强化学习方法,其中高层动作用于切换电力和运输网络之间的决策,低层动作通过混合策略构建,用于分别计算电力和运输网络中的连续调度和离散路由决策。该方法还使用了一个封装系统动态的嵌入式函数,以增强学习的稳定性和可扩展性。基于IEEE 33节点和69节点电力网络的案例研究验证了该方法在负荷恢复方面的有效性。

🔬 方法详解

问题定义:论文旨在解决在通信基础设施受损情况下,如何去中心化地调度移动电源(MPSs)和维修队伍(RCs),以最大程度地恢复微电网的供电能力,提升微电网的弹性。现有方法通常假设通信完好,采用集中式调度,无法应对实际中通信中断的情况。

核心思路:论文的核心思路是将调度问题分解为电力网络和运输网络两个层面的决策,并采用分层多智能体强化学习方法进行求解。高层智能体负责在电力和运输网络决策之间切换,低层智能体负责在各自网络中进行具体的调度和路由决策。这种分层结构能够有效地降低问题的复杂度,并实现去中心化的决策。

技术框架:整体框架包含两个层级:高层决策和低层决策。高层决策智能体根据当前系统状态选择是在电力网络中进行调度还是在运输网络中进行路由。低层决策智能体则根据高层决策的指示,在相应的网络中执行具体的动作。电力网络中的调度动作是连续的,而运输网络中的路由动作是离散的。整个过程通过强化学习进行训练,目标是最大化微电网的负荷恢复量。

关键创新:论文的关键创新在于以下几点:(1) 提出了一个去中心化的调度框架,能够应对通信受损的情况;(2) 采用了分层多智能体强化学习方法,有效地降低了问题的复杂度;(3) 使用了混合策略,能够同时处理连续的调度动作和离散的路由动作;(4) 嵌入了系统动态函数,增强了学习的稳定性和可扩展性。

关键设计:高层智能体使用离散动作空间,选择电力网络或运输网络。低层智能体使用混合策略,电力网络采用连续动作空间进行功率调度,运输网络采用离散动作空间进行路径选择。损失函数设计为负的未满足负荷量,目标是最小化未满足负荷。嵌入式函数用于预测系统状态的演变,从而帮助智能体更好地进行决策。

🖼️ 关键图片

img_0

📊 实验亮点

论文在IEEE 33节点和69节点电力网络上进行了案例研究,验证了所提出方法的有效性。实验结果表明,该方法能够在通信受损的情况下,有效地恢复负荷供电,并优于传统的集中式调度方法。具体的性能数据和提升幅度在论文中进行了详细的展示。

🎯 应用场景

该研究成果可应用于实际微电网的弹性提升,尤其是在自然灾害等极端事件发生后,通信基础设施受损的情况下。通过部署移动电源和维修队伍,并利用该算法进行去中心化调度,可以快速恢复供电,减少经济损失和社会影响。未来可进一步扩展到更大规模的配电网络,并考虑更多类型的分布式能源。

📄 摘要(原文)

Mobile power sources (MPSs) have been gradually deployed in microgrids as critical resources to coordinate with repair crews (RCs) towards resilience enhancement owing to their flexibility and mobility in handling the complex coupled power-transport systems. However, previous work solves the coordinated dispatch problem of MPSs and RCs in a centralized manner with the assumption that the communication network is still fully functioning after the event. However, there is growing evidence that certain extreme events will damage or degrade communication infrastructure, which makes centralized decision making impractical. To fill this gap, this paper formulates the resilience-driven dispatch problem of MPSs and RCs in a decentralized framework. To solve this problem, a hierarchical multi-agent reinforcement learning method featuring a two-level framework is proposed, where the high-level action is used to switch decision-making between power and transport networks, and the low-level action constructed via a hybrid policy is used to compute continuous scheduling and discrete routing decisions in power and transport networks, respectively. The proposed method also uses an embedded function encapsulating system dynamics to enhance learning stability and scalability. Case studies based on IEEE 33-bus and 69-bus power networks are conducted to validate the effectiveness of the proposed method in load restoration.