Robust and Interpretable Graph Neural Networks for Power Systems State Estimation

📄 arXiv: 2603.23357v1 📥 PDF

作者: Arbel Yaniv, Kilian Golinski, Christoph Goebel

分类: eess.SY

发布日期: 2026-03-24


💡 一句话要点

提出基于GNAN和边条件消息传递的GNN,用于电力系统状态估计

🎯 匹配领域: 支柱四:生成式动作 (Generative Motion)

关键词: 图神经网络 电力系统状态估计 可解释性 边条件消息传递 配电网 图神经加性网络 智能电网

📋 核心要点

  1. 现有配电系统状态估计方法难以有效利用电网拓扑信息和处理拓扑变化。
  2. 论文提出基于GNAN和边条件消息传递的GNN模型,以提升模型的可解释性和性能。
  3. 实验表明,结合远端节点信息可提升学习效果,但GNAN精度略低于GAT,可作为图学习探针。

📝 摘要(中文)

本研究分析了图神经网络(GNN)在配电系统状态估计(DSSE)中的应用,采用了一种可解释的图神经加性网络(GNAN),并利用了边条件消息传递机制。该架构与标准的图注意力网络(GAT)架构进行了基准测试。使用具有拓扑变化和各种测量渗透率的多个SimBench电网来评估性能。实验结果表明,GNAN在准确性方面略逊于GAT,但当与所提出的边注意力机制结合使用时,可以作为图学习的有用探针。它们共同表明,结合来自远端节点的信息可以提高学习效果,具体取决于电网拓扑和可用数据。本研究提升了对基于图学习的状态估计任务的理解,并为可靠的基于GNN的DSSE预测技术做出了贡献。

🔬 方法详解

问题定义:电力系统状态估计(DSSE)旨在根据有限的测量数据推断电网的状态变量,如电压幅值和相角。传统的DSSE方法依赖于复杂的物理模型和迭代算法,计算成本高昂且对测量噪声敏感。现有的基于GNN的DSSE方法虽然能够利用电网拓扑信息,但通常缺乏可解释性,并且难以适应电网拓扑结构的变化。

核心思路:论文的核心思路是利用图神经网络(GNN)学习电网拓扑结构与状态变量之间的关系,从而实现高效准确的DSSE。为了提高模型的可解释性,论文采用了图神经加性网络(GNAN),该网络将节点特征的贡献分解为多个可解释的加性项。此外,论文还引入了边条件消息传递机制,允许模型根据边的属性(如线路阻抗)调整消息传递过程,从而更好地适应电网拓扑结构的变化。

技术框架:整体框架包括以下几个主要模块:1)图构建模块:将电网表示为一个图,节点表示母线,边表示线路。2)特征提取模块:提取节点的初始特征,如注入功率和电压测量值。3)消息传递模块:利用边条件消息传递机制,在节点之间传递信息。4)GNAN模块:利用GNAN学习节点特征与状态变量之间的关系,并输出状态估计结果。

关键创新:论文的关键创新在于以下几点:1)提出了基于GNAN的DSSE模型,提高了模型的可解释性。2)引入了边条件消息传递机制,使模型能够更好地适应电网拓扑结构的变化。3)通过实验证明,结合来自远端节点的信息可以提高学习效果。与现有方法的本质区别在于,论文提出的方法更加注重模型的可解释性和对拓扑变化的适应性。

关键设计:在GNAN中,每个节点的状态估计值被建模为多个加性项的组合,每个加性项对应于一个特定的节点特征。边条件消息传递机制通过一个可学习的函数来调整消息传递的权重,该函数以边的属性作为输入。损失函数采用均方误差(MSE),用于衡量估计值与真实值之间的差异。网络结构包括多个消息传递层和GNAN层,层数和每层的神经元数量根据具体任务进行调整。

📊 实验亮点

实验结果表明,GNAN在准确性方面略逊于GAT,但当与所提出的边注意力机制结合使用时,可以作为图学习的有用探针。通过在多个SimBench电网上进行测试,证明了结合来自远端节点的信息可以提高学习效果,尤其是在电网拓扑结构复杂或测量数据稀疏的情况下。

🎯 应用场景

该研究成果可应用于智能电网的监控和控制,提高电网运行的可靠性和效率。通过准确的状态估计,可以及时发现电网中的异常情况,并采取相应的措施进行修复。此外,该方法还可以用于电网规划和优化,例如评估不同拓扑结构对电网运行的影响。

📄 摘要(原文)

This study analyzes Graph Neural Networks (GNNs) for distribution system state estimation (DSSE) by employing an interpretable Graph Neural Additive Network (GNAN) and by utilizing an edge-conditioned message-passing mechanism. The architectures are benchmarked against the standard Graph Attention Network (GAT) architecture. Multiple SimBench grids with topology changes and various measurement penetration rates were used to evaluate performance. Empirically, GNAN trails GAT in accuracy but serves as a useful probe for graph learning when accompanied with the proposed edge attention mechanism. Together, they demonstrate that incorporating information from distant nodes could improve learning depending on the grid topology and available data. This study advances the state-of-the-art understanding of learning on graphs for the state estimation task and contributes toward reliable GNN-based DSSE prediction technologies.