Performance-driven Constrained Optimal Auto-Tuner for MPC

📄 arXiv: 2503.07127v1 📥 PDF

作者: Albert Gassol Puigjaner, Manish Prajapat, Andrea Carron, Andreas Krause, Melanie N. Zeilinger

分类: cs.LG, cs.RO

发布日期: 2025-03-10

备注: 8 pages

DOI: 10.1109/LRA.2025.3550838


💡 一句话要点

提出COAT-MPC,一种性能驱动的约束优化MPC自动调参器,提升系统性能并满足约束。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 模型预测控制 自动调参 贝叶斯优化 约束优化 高斯过程

📋 核心要点

  1. MPC参数整定的关键挑战在于保证系统性能持续高于阈值,传统方法难以兼顾性能和约束。
  2. COAT-MPC通过收集性能数据并更新后验信念进行学习,以目标导向方式探索参数域,提升样本效率。
  3. 实验结果表明,COAT-MPC在自主赛车等场景中,约束违反和累积遗憾方面均优于现有方法。

📝 摘要(中文)

本文提出了一种新颖的方法,COAT-MPC(Constrained Optimal Auto-Tuner for MPC),即用于MPC的约束优化自动调参器,旨在解决MPC成本函数参数调整中的关键挑战,即确保系统性能始终高于特定阈值。COAT-MPC在每次调参迭代中收集性能数据,并通过更新后验信念进行学习。它以目标导向的方式探索调参参数域,寻找乐观的参数,这是其样本效率的关键。我们对COAT-MPC进行了理论分析,表明它始终以任意高的概率满足性能约束,并可在有限时间内收敛到最优性能。通过全面的仿真和与硬件平台的对比分析,我们证明了COAT-MPC相对于经典贝叶斯优化(BO)和其他最先进方法的有效性。在应用于自主赛车时,我们的方法在约束违反和随时间累积的遗憾方面优于基线。

🔬 方法详解

问题定义:模型预测控制(MPC)的性能很大程度上依赖于成本函数中参数的选取。手动调整这些参数既耗时又需要专业知识。现有的自动调参方法,如贝叶斯优化(BO),虽然可以自动化这个过程,但通常不能保证在调参过程中系统性能始终满足预设的约束条件,这在安全攸关的应用中是不可接受的。因此,需要一种能够在满足性能约束的前提下,自动优化MPC参数的方法。

核心思路:COAT-MPC的核心思路是在贝叶斯优化的框架下,引入约束条件,并在探索参数空间时,优先选择那些更有可能满足性能约束的参数。它通过维护一个后验信念来估计每个参数组合的性能,并利用这个信念来指导参数的探索过程。同时,COAT-MPC采用一种乐观策略,即在选择下一个参数时,倾向于选择那些具有较高潜在性能的参数,从而加速优化过程。

技术框架:COAT-MPC的整体框架包括以下几个主要阶段:1) 初始化:初始化参数空间的后验信念。2) 参数选择:基于当前的后验信念,选择下一个要评估的参数组合。这个选择过程考虑了性能约束和优化目标。3) 性能评估:在实际系统或仿真环境中,评估所选参数组合的性能。4) 后验更新:根据评估结果,更新参数空间的后验信念。5) 迭代:重复步骤2-4,直到达到预设的停止条件。

关键创新:COAT-MPC的关键创新在于其约束处理机制和乐观探索策略。传统的贝叶斯优化方法通常只关注优化目标,而忽略了约束条件。COAT-MPC通过引入约束条件,确保在调参过程中系统性能始终满足要求。此外,COAT-MPC的乐观探索策略可以加速优化过程,使其更快地收敛到最优参数。

关键设计:COAT-MPC的关键设计包括:1) 后验信念的表示:通常使用高斯过程来表示参数空间的后验信念。2) 约束处理:通过引入一个约束违反概率函数,将约束条件转化为优化目标的一部分。3) 乐观探索策略:采用Upper Confidence Bound (UCB) 策略,选择具有较高潜在性能的参数。4) 停止条件:可以根据迭代次数、性能提升幅度或约束违反情况来设置停止条件。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在自主赛车仿真实验中,COAT-MPC在约束违反次数和累积遗憾值上均优于传统的贝叶斯优化方法和其他先进方法。具体来说,COAT-MPC显著减少了约束违反的次数,并更快地收敛到最优性能。这表明COAT-MPC在实际应用中具有很强的竞争力。

🎯 应用场景

COAT-MPC具有广泛的应用前景,尤其适用于需要高性能和高安全性的控制系统。例如,自主赛车、机器人控制、航空航天等领域。它可以帮助工程师快速、高效地调整MPC参数,从而提高系统性能,降低开发成本,并确保系统安全可靠地运行。未来,COAT-MPC可以进一步扩展到其他类型的控制系统和优化问题中。

📄 摘要(原文)

A key challenge in tuning Model Predictive Control (MPC) cost function parameters is to ensure that the system performance stays consistently above a certain threshold. To address this challenge, we propose a novel method, COAT-MPC, Constrained Optimal Auto-Tuner for MPC. With every tuning iteration, COAT-MPC gathers performance data and learns by updating its posterior belief. It explores the tuning parameters' domain towards optimistic parameters in a goal-directed fashion, which is key to its sample efficiency. We theoretically analyze COAT-MPC, showing that it satisfies performance constraints with arbitrarily high probability at all times and provably converges to the optimum performance within finite time. Through comprehensive simulations and comparative analyses with a hardware platform, we demonstrate the effectiveness of COAT-MPC in comparison to classical Bayesian Optimization (BO) and other state-of-the-art methods. When applied to autonomous racing, our approach outperforms baselines in terms of constraint violations and cumulative regret over time.