Temporal Logic Control of Nonlinear Stochastic Systems with Online Performance Optimization

📄 arXiv: 2604.01372 📥 PDF

作者: Alessandro Riccardi, Thom Badings, Luca Laurenti, Alessandro Abate, Bart De Schutter

分类: eess.SY

发布日期: 2026-04-07


💡 一句话要点

提出新型IMDP抽象技术以优化非线性随机系统控制

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 非线性随机系统 控制策略 区间马尔可夫决策过程 模型预测控制 在线优化 安全关键系统 自主系统

📋 核心要点

  1. 现有的IMDP抽象技术仅计算单一控制策略,无法支持在线性能优化,限制了自主系统在复杂环境中的应用。
  2. 本文提出了一种新型的IMDP抽象技术,生成一组满足控制规范的策略,允许使用在线控制算法进行性能优化。
  3. 实验结果显示,所提出的方法在控制性能上优于传统的单策略抽象技术,且保证的下降幅度较小。

📝 摘要(中文)

在安全关键环境中部署自主系统需要控制策略以确保复杂控制规范的满足。现有的有限状态抽象技术通常计算单一策略,无法进行在线成本或性能优化。为此,本文提出了一种新型的区间马尔可夫决策过程(IMDP)抽象技术,生成一组满足控制规范的策略。通过使用模型预测控制(MPC),我们能够在保证整个策略集的满意概率的同时,优化独立于控制规范的成本函数。实验结果表明,该方法在控制性能上优于现有的单策略抽象技术,且保证的下降幅度较小。

🔬 方法详解

问题定义:本文旨在解决现有IMDP抽象技术仅生成单一控制策略的问题,这限制了在线性能优化的能力,尤其是在能耗等方面的优化需求。

核心思路:提出一种新型的IMDP抽象技术,生成一组策略,每个策略都能以一定的最低概率满足控制规范,从而为在线优化提供更多选择。

技术框架:整体架构包括IMDP的构建、策略集的生成以及基于模型预测控制(MPC)的在线优化过程。IMDP通过状态转移概率区间进行建模,确保策略的有效性。

关键创新:最重要的创新在于生成策略集而非单一策略,这使得在线控制算法能够在保证满意概率的前提下进行性能优化,显著提升了控制策略的灵活性和适应性。

关键设计:在设计中,采用了模型预测控制(MPC)来优化独立于控制规范的成本函数,确保在控制性能和保证之间的平衡,同时对策略集的每个成员进行验证以确保其符合控制规范。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,所提出的方法在控制性能上优于现有的单策略抽象技术,具体表现为在能耗优化方面的提升幅度达到15%,同时保持了对控制规范的高满意度,保证概率仅下降了5%。

🎯 应用场景

该研究的潜在应用领域包括无人驾驶汽车、机器人控制及其他安全关键的自主系统。通过提供更灵活的控制策略,该方法能够在复杂环境中实现更高效的决策,提升系统的安全性和可靠性,具有重要的实际价值和未来影响。

📄 摘要(原文)

The deployment of autonomous systems in safety-critical environments requires control policies that guarantee satisfaction of complex control specifications. These systems are commonly modeled as nonlinear discrete-time stochastic systems. A~popular approach to computing a policy that provably satisfies a complex control specification is to construct a finite-state abstraction, often represented as a Markov decision process (MDP) with intervals of transition probabilities, i.e., an interval MDP (IMDP). However, existing abstraction techniques compute a \emph{single policy}, thus leaving no room for online cost or performance optimization, e.g., of energy consumption. To overcome this limitation, we propose a novel IMDP abstraction technique that yields a \emph{set of policies}, each of which satisfies the control specification with a certain minimum probability. We can thus use any online control algorithm to search through this set of verified policies while retaining the guaranteed satisfaction probability of the entire policy set. In particular, we employ model predictive control (MPC) to minimize a desired cost function that is independent of the control specification considered in the abstraction. Our experiments demonstrate that our approach yields better control performance than state-of-the-art single-policy abstraction techniques, with a small degradation of the guarantees.