Universal Transient Stability Analysis: A Large Language Model-Enabled Dynamics Prediction Framework
作者: Chao Shen, Ke Zuo, Mingyang Sun
分类: eess.SY
发布日期: 2025-12-24
💡 一句话要点
提出TSA-LLM框架以解决瞬态稳定性分析的通用性问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 瞬态稳定性分析 大型语言模型 动态预测 多场景泛化 电力系统 故障检测 智能电网
📋 核心要点
- 现有的瞬态稳定性分析框架在多场景泛化能力上存在不足,无法适应不同的操作条件和故障情况。
- 本文提出的TSA-LLM框架通过将多变量动态预测转化为单变量生成任务,解决了现有方法的局限性。
- 实验结果显示,TSA-LLM在新英格兰39节点系统上实现零-shot泛化,并在冰岛189节点系统上仅需5%微调数据即可达到专家水平。
📝 摘要(中文)
现有的瞬态稳定性分析(TSA)动态预测框架未能实现多场景的“通用性”,即单一预训练架构在不同操作条件、未见故障和异构系统中的泛化能力。为此,本文提出了基于大型语言模型(LLM)的TSA-LLM框架,将多变量瞬态动态预测建模为单变量生成任务。该框架的三大创新包括:一是新颖的数据处理管道,解决维度异质性;二是高效的冻结与微调策略,增强LLM架构;三是结合教师强迫与计划采样的两阶段微调方案。全面测试表明,TSA-LLM在新英格兰39节点系统上实现零-shot泛化,并在冰岛189节点系统上仅用5%的微调数据匹配专家性能。
🔬 方法详解
问题定义:本文旨在解决瞬态稳定性分析中现有方法无法实现的多场景泛化能力,尤其是在面对不同操作条件和未见故障时的表现不足。
核心思路:通过将多变量瞬态动态预测建模为单变量生成任务,TSA-LLM框架能够有效处理维度异质性和样本归一化问题,从而提升模型的泛化能力。
技术框架:该框架包括三个主要模块:新颖的数据处理管道、参数高效的冻结与微调策略,以及结合教师强迫与计划采样的两阶段微调方案。
关键创新:TSA-LLM的核心创新在于其数据处理管道和微调策略,尤其是通过冻结核心变换块来保留通用特征提取能力,显著提高了模型的适应性和效率。
关键设计:在参数设置上,框架引入了专用的输入嵌入和输出投影层,同时采用样本归一化和时间补丁技术以优化长序列建模。
🖼️ 关键图片
📊 实验亮点
实验结果表明,TSA-LLM在新英格兰39节点系统上实现了零-shot泛化能力,能够适应混合稳定条件和未见故障。在冰岛189节点系统上,TSA-LLM仅使用5%的微调数据便达到了与专家相当的性能,显示出其强大的多场景适应能力。
🎯 应用场景
该研究的潜在应用领域包括电力系统的瞬态稳定性分析、故障检测与诊断、以及智能电网的动态监控等。通过实现多场景的通用性,TSA-LLM框架能够在不同的电力网络中快速部署,提升系统的安全性和可靠性,具有重要的实际价值和未来影响。
📄 摘要(原文)
Existing dynamics prediction frameworks for transient stability analysis (TSA) fail to achieve multi-scenario "universality"--the inherent ability of a single, pre-trained architecture to generalize across diverse operating conditions, unseen faults, and heterogeneous systems. To address this, this paper proposes TSA-LLM, a large language model (LLM)-based universal framework that models multi-variate transient dynamics prediction as a univariate generative task with three key innovations: First, a novel data processing pipeline featuring channel independence decomposition to resolve dimensional heterogeneity, sample-wise normalization to eliminate separate stable or unstable pipelines, and temporal patching for efficient long-sequence modeling; Second, a parameter-efficient freeze-and-finetune strategy that augments the LLM's architecture with dedicated input embedding and output projection layers while freezing core transformer blocks to preserve generic feature extraction capabilities; Third, a two-stage fine-tuning scheme that combines teacher forcing, which feeds the model ground-truth data during initial training, with scheduled sampling, which gradually shifts to leveraging model-generated predictions, to mitigate cumulative errors in long-horizon iterative prediction. Comprehensive testing demonstrates the framework's universality, as TSA-LLM trained solely on the New England 39-bus system achieves zero-shot generalization to mixed stability conditions and unseen faults, and matches expert performance on the larger Iceland 189-bus system with only 5% fine-tuning data. This multi-scenario versatility validates a universal framework that eliminates scenario-specific retraining and achieves scalability via large-scale parameters and cross-scenario training data.