Factorized Neural Implicit DMD for Parametric Dynamics
作者: Siyuan Chen, Zhecheng Wang, Yixin Chen, Yue Chang, Peter Yichen Chen, Eitan Grinspun, Jonathan Panuelos
分类: cs.LG
发布日期: 2026-03-11
💡 一句话要点
提出因子化神经隐式DMD,用于参数化动力学系统建模与分析。
🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)
关键词: 神经隐式表示 Koopman算子 动态模态分解 参数化动力学 物理信息神经网络
📋 核心要点
- 传统方法在处理高维非线性动力学系统时,计算成本高昂,难以进行实时分析和控制。
- 论文提出一种物理编码的神经场参数化方法,学习分解的流算子,解耦空间模式和时间演化。
- 实验表明,该方法能准确预测复杂时空现象,并提供对系统动态行为的深入理解。
📝 摘要(中文)
本文提出了一种数据驱动、无模型的物理系统时间演化建模方法,旨在避免对控制方程的显式依赖。即使存在偏微分方程等物理先验,系统通常也存在于高维状态空间并呈现非线性动力学,使得传统数值求解器计算成本高昂且不适用于实时分析和控制。本文关注学习动力系统的参数化流问题:给定初始场和一组物理参数,目标是预测系统随时间的演化,支持长时程展开、推广到未见参数以及谱分析。为此,本文提出了一种物理编码的神经场参数化方法,用于Koopman算子的谱分解。与拟合单个解曲面的物理约束神经场以及直接近似固定时间范围解算子的神经算子不同,本文的模型学习了一种分解的流算子,将空间模式和时间演化解耦。这种结构暴露了底层物理过程的潜在特征值、模式和稳定性,从而实现稳定的长期展开、跨参数空间插值和谱分析。在各种动力学问题上验证了该方法的有效性,展示了其准确预测复杂时空现象并提供系统动态行为见解的能力。
🔬 方法详解
问题定义:论文旨在解决参数化动力系统的建模问题,即如何通过学习得到一个能够根据初始状态和物理参数预测系统随时间演化的模型。现有方法,如传统的数值求解器,在高维和非线性动力学系统中计算成本过高。而物理约束的神经场和神经算子虽然可以学习动力系统,但前者只能拟合单个解曲面,后者只能近似固定时间范围内的解算子,难以进行长时程预测和谱分析。
核心思路:论文的核心思路是将Koopman算子的谱分解与神经场相结合,通过学习一个分解的流算子来解耦空间模式和时间演化。Koopman算子可以将非线性动力系统线性化,而谱分解可以提取系统的特征值和特征向量,从而揭示系统的动态行为。通过神经场参数化Koopman算子的谱分解,可以学习到一个能够泛化到不同参数的动力学模型。
技术框架:该方法的核心是Factorized Neural Implicit DMD (FNIDMD)。整体框架包括:1)使用神经场表示空间状态;2)学习一个分解的流算子,该算子将空间模式和时间演化解耦;3)通过Koopman算子的谱分解提取系统的特征值和特征向量;4)使用学习到的特征值和特征向量进行长时程预测和谱分析。
关键创新:该方法最重要的创新点在于将Koopman算子的谱分解与神经场相结合,学习一个分解的流算子。与现有方法相比,该方法能够更好地捕捉系统的动态行为,实现稳定的长时程预测,并进行谱分析。此外,该方法还能够泛化到未见过的参数,具有更好的鲁棒性。
关键设计:论文中使用了MLP作为神经场来表示空间状态。损失函数包括重构损失和正则化项,用于约束学习到的特征值和特征向量。具体的网络结构和参数设置在论文中有详细描述。此外,论文还使用了DMD(Dynamic Mode Decomposition)作为初始化,以加速训练过程。
🖼️ 关键图片
📊 实验亮点
论文在多个动力学问题上验证了所提方法的有效性,包括Burgers方程、Allen-Cahn方程和Navier-Stokes方程。实验结果表明,该方法能够准确预测复杂时空现象,并提供对系统动态行为的深入理解。与现有方法相比,该方法在长时程预测和泛化能力方面具有显著优势,例如在Burgers方程的预测中,FNIDMD相比于基线方法能够更准确地预测长时间的演化趋势。
🎯 应用场景
该研究成果可应用于各种动力学系统的建模与分析,例如流体动力学、结构力学、控制系统等。通过学习系统的动态行为,可以实现对系统的预测、控制和优化。该方法在实时仿真、参数优化、故障诊断等领域具有潜在的应用价值,并有助于深入理解复杂系统的内在机理。
📄 摘要(原文)
A data-driven, model-free approach to modeling the temporal evolution of physical systems mitigates the need for explicit knowledge of the governing equations. Even when physical priors such as partial differential equations are available, such systems often reside in high-dimensional state spaces and exhibit nonlinear dynamics, making traditional numerical solvers computationally expensive and ill-suited for real-time analysis and control. Consider the problem of learning a parametric flow of a dynamical system: with an initial field and a set of physical parameters, we aim to predict the system's evolution over time in a way that supports long-horizon rollouts, generalization to unseen parameters, and spectral analysis. We propose a physics-coded neural field parameterization of the Koopman operator's spectral decomposition. Unlike a physics-constrained neural field, which fits a single solution surface, and neural operators, which directly approximate the solution operator at fixed time horizons, our model learns a factorized flow operator that decouples spatial modes and temporal evolution. This structure exposes underlying eigenvalues, modes, and stability of the underlying physical process to enable stable long-term rollouts, interpolation across parameter spaces, and spectral analysis. We demonstrate the efficacy of our method on a range of dynamics problems, showcasing its ability to accurately predict complex spatiotemporal phenomena while providing insights into the system's dynamic behavior.