Grid-Mind: An LLM-Orchestrated Multi-Fidelity Agent for Automated Connection Impact Assessment
作者: Mohamed Shamseldein
分类: eess.SY
发布日期: 2026-02-24
💡 一句话要点
Grid-Mind:基于LLM的多置信度电力系统连接影响评估智能体
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 电力系统仿真 连接影响评估 智能体 自动化 多置信度 反幻觉 自我纠正
📋 核心要点
- 电力系统运行中,连接影响评估(CIA)耗时且复杂,现有方法缺乏自动化和对自然语言请求的理解。
- Grid-Mind利用LLM作为核心决策者,通过工具注册表自主编排多置信度仿真,实现CIA流程的自动化。
- 实验表明,Grid-Mind在工具选择和解析方面表现出色,并通过自我纠正机制不断提高准确性。
📝 摘要(中文)
本文提出Grid-Mind,一个领域特定的LLM智能体,用于解释自然语言形式的互联请求,并自主编排多置信度的电力系统仿真。该架构以LLM为核心决策实体,利用包含11个工具的注册表来执行连接影响评估(CIA)研究,涵盖稳态潮流、N-1 故障分析、暂态稳定性和电磁暂态筛选。违规检查器基于量化仿真输出来验证每个决策,三层反幻觉防御通过强制容量工具路由和后响应验证来降低数值捏造风险。提示级别的自我纠正机制从智能体失败中提取经验,无需模型重新训练即可逐步提高准确性。在50个IEEE 118节点场景上的端到端评估(DeepSeek-V3,2026-02-23)实现了84.0%的工具选择准确率和100%的解析准确率。一个独立的56场景自我纠正套件通过了56个案例中的49个(87.5%),平均得分为89.3。这些结果为持续改进建立了一个可复现的基线,同时保持可审计的、基于仿真的决策支持。
🔬 方法详解
问题定义:电力系统互联请求通常以自然语言形式呈现,传统连接影响评估(CIA)流程依赖人工操作,效率低且易出错。现有方法难以理解自然语言请求,无法自动选择合适的仿真工具和参数,导致评估过程耗时且成本高昂。
核心思路:Grid-Mind的核心思路是将LLM作为智能体,赋予其理解自然语言互联请求并自主编排多置信度仿真的能力。通过将不同的仿真工具注册到LLM中,使其能够根据请求内容选择合适的工具,并利用仿真结果进行决策,从而实现CIA流程的自动化。
技术框架:Grid-Mind的整体架构包含以下几个主要模块:1) 自然语言互联请求解析模块,用于将自然语言请求转换为LLM可理解的格式;2) 工具注册表,包含各种电力系统仿真工具及其描述;3) LLM决策引擎,根据请求内容和工具注册表选择合适的仿真工具和参数;4) 仿真执行模块,执行选定的仿真工具并获取仿真结果;5) 违规检查器,根据仿真结果判断是否存在违规情况;6) 反幻觉防御机制,防止LLM生成不合理的仿真参数或结果;7) 自我纠正机制,从失败案例中学习,提高决策准确性。
关键创新:Grid-Mind的关键创新在于将LLM应用于电力系统仿真领域,并构建了一个能够自主编排多置信度仿真的智能体。通过LLM的强大语言理解和推理能力,实现了CIA流程的自动化,提高了评估效率和准确性。此外,该方法还引入了反幻觉防御机制和自我纠正机制,进一步提高了系统的可靠性和鲁棒性。
关键设计:Grid-Mind的关键设计包括:1) 精心设计的提示工程,引导LLM正确理解互联请求并选择合适的工具;2) 三层反幻觉防御机制,包括强制容量工具路由和后响应验证,确保仿真结果的合理性;3) 提示级别的自我纠正机制,通过从失败案例中提取经验,不断优化LLM的决策能力。具体参数设置和损失函数等细节未在论文中详细描述,属于未知信息。
📊 实验亮点
Grid-Mind在IEEE 118节点测试系统上进行了评估,结果表明其工具选择准确率达到84.0%,解析准确率达到100%。通过自我纠正机制,系统在56个场景中的通过率达到87.5%,平均得分为89.3。这些结果表明Grid-Mind具有良好的性能和鲁棒性。
🎯 应用场景
Grid-Mind可应用于电力系统规划、运行和调度等领域,能够帮助电力工程师快速评估新的互联请求对系统稳定性和可靠性的影响。该研究具有重要的实际价值,可以提高电力系统的运行效率和安全性,并为未来的智能电网发展提供技术支持。
📄 摘要(原文)
Large language models (LLMs) have demonstrated remarkable tool-use capabilities, yet their application to power system operations remains largely unexplored. This paper presents Grid-Mind, a domain-specific LLM agent that interprets natural-language interconnection requests and autonomously orchestrates multi-fidelity power system simulations. The LLM-first architecture positions the language model as the central decision-making entity, employing an eleven-tool registry to execute Connection Impact Assessment (CIA) studies spanning steadystate power flow, N-1 contingency analysis, transient stability, and electromagnetic transient screening. A violation inspector grounds every decision in quantitative simulation outputs, while a three-layer anti-hallucination defence mitigates numerical fabrication risk through forced capacity-tool routing and post-response grounding validation. A prompt-level self-correction mechanism extracts distilled lessons from agent failures, yielding progressive accuracy improvements without model retraining. End-to-end evaluation on 50 IEEE 118-bus scenarios (DeepSeek-V3, 2026-02-23) achieved 84.0% tool-selection accuracy and 100% parsing accuracy. A separate 56-scenario self-correction suite passed 49 of 56 cases (87.5%) with a mean score of 89.3. These results establish a reproducible baseline for continued refinement while maintaining auditable, simulation-grounded decision support.