Flow matching Operators for Residual-Augmented Probabilistic Learning of Partial Differential Equations
作者: Sahil Bhola, Karthik Duraisamy
分类: stat.CO, cs.LG, stat.ML
发布日期: 2025-12-14 (更新: 2025-12-16)
💡 一句话要点
提出残差增强概率学习的Flow Matching算子,解决数据稀缺下PDE学习难题。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: Flow Matching 神经算子 偏微分方程 残差学习 概率建模 数据稀缺 分辨率不变性
📋 核心要点
- 现有神经算子学习PDE需要大量高保真数据,生成模型则牺牲分辨率不变性,数据稀缺场景下学习面临挑战。
- 提出基于Flow Matching的残差增强学习策略,学习低保真到高保真解的概率校正,而非直接学习完整解映射。
- 实验证明,该方法能准确学习跨分辨率和保真度的解算子,并产生反映模型置信度的不确定性估计。
📝 摘要(中文)
在数据稀缺的情况下,学习偏微分方程的概率代理模型仍然具有挑战性:神经算子需要大量高保真数据,而生成方法通常会牺牲分辨率不变性。本文在无限维函数空间中构建Flow Matching,通过学习到的残差校正,将低保真近似映射到高保真PDE解的流形。我们开发了一种基于特征线性调制的条件神经算子架构,用于直接在函数空间中匹配Flow Matching向量场,从而能够在任意空间分辨率下进行推理而无需重新训练。为了提高诱导神经ODE的稳定性和表征控制,我们将Flow向量场参数化为线性算子和非线性算子的和,将轻量级线性组件与条件傅里叶神经算子相结合,以实现富有表现力的输入相关动力学。然后,我们制定了一种残差增强学习策略,其中Flow模型学习从廉价的低保真代理到高保真解的概率校正,而不是从头开始学习完整的解映射。最后,我们推导了可处理的训练目标,将条件Flow Matching扩展到具有输入函数相关耦合的算子设置。为了证明我们方法的有效性,我们展示了一系列PDE的数值实验,包括一维平流和Burgers方程,以及用于通过多孔介质流动的二维Darcy流问题。我们表明,所提出的方法可以准确地学习跨不同分辨率和保真度的解算子,并产生适当反映模型置信度的不确定性估计,即使在有限的高保真数据上训练也是如此。
🔬 方法详解
问题定义:现有神经算子在学习偏微分方程(PDE)的解时,需要大量的高保真数据进行训练,这在实际应用中往往难以满足。而一些生成模型虽然可以生成PDE的解,但通常会牺牲分辨率不变性,即模型在训练时使用的分辨率与推理时使用的分辨率必须一致,这限制了模型的泛化能力。因此,如何在数据稀缺的情况下,学习具有分辨率不变性的PDE解算子是一个重要的挑战。
核心思路:本文的核心思路是利用Flow Matching的思想,学习一个概率传输过程,将低保真度的PDE近似解映射到高保真度的PDE解流形上。通过学习残差校正,而不是直接学习完整的解映射,可以大大降低对高保真数据的需求。此外,通过在函数空间中直接学习Flow Matching向量场,可以实现分辨率不变性,即模型可以在任意分辨率下进行推理,而无需重新训练。
技术框架:该方法的技术框架主要包括以下几个模块:1) 低保真代理模型:用于生成PDE的低保真近似解。2) Flow Matching模型:基于条件神经算子,学习一个概率传输过程,将低保真解映射到高保真解。该模型通过特征线性调制实现函数空间中的Flow Matching。3) 残差增强学习策略:Flow模型学习从低保真代理到高保真解的概率校正。4) 训练目标:推导可处理的训练目标,将条件Flow Matching扩展到具有输入函数相关耦合的算子设置。
关键创新:该方法最重要的技术创新点在于:1) 在无限维函数空间中构建Flow Matching,实现分辨率不变性。2) 提出残差增强学习策略,降低对高保真数据的需求。3) 将Flow向量场参数化为线性算子和非线性算子的和,提高了神经ODE的稳定性和表征控制能力。与现有方法的本质区别在于,该方法不是直接学习完整的解映射,而是学习残差校正,从而降低了学习难度和对数据的需求。
关键设计:在Flow Matching模型中,Flow向量场被参数化为线性算子和非线性算子的和。线性算子采用轻量级的设计,而非线性算子则采用条件傅里叶神经算子,以实现富有表现力的输入相关动力学。损失函数的设计考虑了输入函数相关耦合,以保证训练的稳定性和有效性。此外,特征线性调制被用于实现函数空间中的Flow Matching,从而实现分辨率不变性。
🖼️ 关键图片
📊 实验亮点
该方法在1D平流方程、Burgers方程和2D Darcy流问题上进行了验证。实验结果表明,该方法能够准确学习跨不同分辨率和保真度的解算子,并产生反映模型置信度的不确定性估计,即使在有限的高保真数据上训练也是如此。这表明该方法在数据稀缺的情况下,具有很强的实用价值。
🎯 应用场景
该研究成果可应用于各种科学与工程计算领域,例如流体力学、热传导、电磁学等。在这些领域中,获取高保真数据往往成本高昂,而该方法可以在数据稀缺的情况下,利用廉价的低保真数据,学习高精度的PDE解算子,从而降低计算成本,加速科学发现和工程设计。未来,该方法有望应用于更复杂的物理系统建模和仿真。
📄 摘要(原文)
Learning probabilistic surrogates for partial differential equations remains challenging in data-scarce regimes: neural operators require large amounts of high-fidelity data, while generative approaches typically sacrifice resolution invariance. We formulate flow matching in an infinite-dimensional function space to learn a probabilistic transport that maps low-fidelity approximations to the manifold of high-fidelity PDE solutions via learned residual corrections. We develop a conditional neural operator architecture based on feature-wise linear modulation for flow matching vector fields directly in function space, enabling inference at arbitrary spatial resolutions without retraining. To improve stability and representational control of the induced neural ODE, we parameterize the flow vector field as a sum of a linear operator and a nonlinear operator, combining lightweight linear components with a conditioned Fourier neural operator for expressive, input-dependent dynamics. We then formulate a residual-augmented learning strategy where the flow model learns probabilistic corrections from inexpensive low-fidelity surrogates to high-fidelity solutions, rather than learning the full solution mapping from scratch. Finally, we derive tractable training objectives that extend conditional flow matching to the operator setting with input-function-dependent couplings. To demonstrate the effectiveness of our approach, we present numerical experiments on a range of PDEs, including the 1D advection and Burgers' equation, and a 2D Darcy flow problem for flow through a porous medium. We show that the proposed method can accurately learn solution operators across different resolutions and fidelities and produces uncertainty estimates that appropriately reflect model confidence, even when trained on limited high-fidelity data.