Nonparametric Control Koopman Operators
作者: Petar Bevanda, Bas Driessen, Lucian Cristian Iacob, Stefan Sosnowski, Roland Tóth, Sandra Hirche
分类: eess.SY, cs.LG
发布日期: 2024-05-12 (更新: 2025-09-02)
备注: The authors' electronic preprint version of a revised article submitted to IEEE for publication
💡 一句话要点
提出一种非参数控制Koopman算子学习框架,无需显式字典或输入参数化。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: Koopman算子 非参数控制 再生核希尔伯特空间 模型预测控制 系统辨识
📋 核心要点
- 现有控制Koopman算子学习方法依赖于预定义的字典或输入参数化,限制了其灵活性和在高维系统中的应用。
- 该论文提出一种非参数化的Koopman算子学习框架,通过RKHS中的无限维回归,避免了对字典或输入的显式参数化。
- 实验结果表明,该方法在高维控制系统中具有优越的预测精度,并且可以与线性参数变化技术结合用于模型预测控制。
📝 摘要(中文)
本文提出了一种新颖的控制系统Koopman组合算子表示框架,该框架基于再生核希尔伯特空间(RKHS),且无需显式的字典或输入参数化。通过建立不同模型表示之间的基本等价性,我们弥合了控制系统算子学习和无限维回归之间的差距,从而能够在统一框架下实现各种经验估计器以及与RKHS中良好理解的学习理论的连接。因此,我们提出的框架允许在无限维空间中进行任意精确的有限秩逼近,并产生有限维预测器,而无需先验地限制于有限的函数或输入范围。为了将该方法应用于高维控制系统,我们利用草图技术提高了所提出的控制Koopman算子估计的可扩展性。数值实验表明,与双线性EDMD相比,尤其是在高维度下,该方法具有更高的预测精度。最后,我们证明了我们学习到的模型可以很容易地与线性参数变化技术相结合,用于模型预测控制。
🔬 方法详解
问题定义:现有基于Koopman算子的控制方法通常需要预先定义一个函数字典来近似状态空间,或者对输入进行参数化,这限制了模型的表达能力和泛化能力,尤其是在高维复杂系统中。如何避免对字典或输入的显式参数化,从而提高模型的灵活性和在高维系统中的适用性,是本文要解决的核心问题。
核心思路:本文的核心思路是将控制系统的Koopman算子学习问题转化为再生核希尔伯特空间(RKHS)中的无限维回归问题。通过利用RKHS的性质,可以避免对状态空间进行显式的字典选择或输入参数化,从而实现非参数化的Koopman算子学习。这种方法能够更灵活地捕捉系统的动态特性,并提高在高维系统中的预测精度。
技术框架:该方法的技术框架主要包括以下几个步骤:1) 将控制系统表示为Koopman算子作用下的状态转移过程。2) 将Koopman算子学习问题转化为RKHS中的回归问题。3) 利用核方法估计Koopman算子。4) 使用草图技术提高算法在高维系统中的可扩展性。5) 将学习到的模型与线性参数变化技术结合,用于模型预测控制。
关键创新:该方法最重要的技术创新在于提出了非参数化的Koopman算子学习框架,该框架无需显式的字典或输入参数化。通过将Koopman算子学习问题转化为RKHS中的回归问题,该方法能够更灵活地捕捉系统的动态特性,并提高在高维系统中的预测精度。与传统的基于字典或参数化的方法相比,该方法具有更强的适应性和泛化能力。
关键设计:该方法的关键设计包括:1) 使用再生核希尔伯特空间(RKHS)作为函数空间,利用核函数来隐式地定义特征映射。2) 利用草图技术来降低计算复杂度,提高算法在高维系统中的可扩展性。3) 将学习到的Koopman算子模型与线性参数变化(LPV)技术相结合,用于模型预测控制(MPC)。
🖼️ 关键图片
📊 实验亮点
数值实验表明,该方法在预测精度方面优于双线性EDMD,尤其是在高维系统中。例如,在高维控制系统中,该方法的预测误差比双线性EDMD降低了显著比例。此外,该方法还能够与线性参数变化技术相结合,用于模型预测控制,进一步验证了其有效性和实用性。
🎯 应用场景
该研究成果可应用于各种控制系统,例如机器人控制、无人机控制、过程控制等。通过学习系统的动态模型,可以实现更精确的控制和预测,提高系统的性能和鲁棒性。此外,该方法还可以应用于系统辨识、故障诊断等领域,具有广泛的应用前景和实际价值。
📄 摘要(原文)
This paper presents a novel Koopman composition operator representation framework for control systems in reproducing kernel Hilbert spaces (RKHSs) that is free of explicit dictionary or input parametrizations. By establishing fundamental equivalences between different model representations, we are able to close the gap of control system operator learning and infinite-dimensional regression, enabling various empirical estimators and the connection to the well-understood learning theory in RKHSs under one unified framework. Consequently, our proposed framework allows for arbitrarily accurate finite-rank approximations in infinite-dimensional spaces and leads to finite-dimensional predictors without apriori restrictions to a finite span of functions or inputs. To enable applications to high-dimensional control systems, we improve the scalability of our proposed control Koopman operator estimates by utilizing sketching techniques. Numerical experiments demonstrate superior prediction accuracy compared to bilinear EDMD, especially in high dimensions. Finally, we show that our learned models are readily interfaced with linear-parameter-varying techniques for model predictive control.