Latent-Variable Learning of SPDEs via Wiener Chaos

📄 arXiv: 2602.11794v1 📥 PDF

作者: Sebastian Zeng, Andreas Petersson, Wolfgang Bock

分类: cs.LG

发布日期: 2026-02-12


💡 一句话要点

提出基于Wiener混沌的SPDEs潜变量学习方法,无需噪声数据即可学习随机偏微分方程。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱八:物理动画 (Physics-based Animation)

关键词: 随机偏微分方程 潜变量模型 Wiener混沌展开 变分学习 谱Galerkin方法

📋 核心要点

  1. 现有SPDEs学习方法依赖噪声数据或确定性模型,无法捕捉内在随机性,限制了其应用。
  2. 论文提出基于Wiener混沌展开的潜变量模型,分离确定性演化和随机驱动,实现无需噪声的SPDEs学习。
  3. 实验表明,该方法在有界和无界一维空间域上,相比现有方法,取得了更优的性能。

📝 摘要(中文)

本文研究了从时空观测数据中学习具有加性高斯噪声的线性随机偏微分方程(SPDEs)的问题。现有深度学习方法通常需要访问驱动噪声或初始条件,或者依赖于无法捕捉内在随机性的确定性替代模型。我们提出了一种结构化的潜变量公式,仅需解的实现观测,即可学习潜在的随机驱动动力学。我们的方法结合了谱Galerkin投影和截断的Wiener混沌展开,从而在确定性演化和随机驱动之间实现了有原则的分离。这会将无限维SPDE简化为控制潜在时间动力学的参数化常微分方程的有限系统。通过变分学习联合推断潜在动力学和随机驱动,从而可以在训练期间无需显式观察或模拟噪声的情况下恢复随机结构。在合成数据上的经验评估表明,在有界和无界一维空间域上,在可比较的建模假设下,该方法具有最先进的性能。

🔬 方法详解

问题定义:论文旨在解决从SPDEs解的时空观测数据中学习SPDEs的动力学规律的问题,尤其是在无法直接观测到驱动噪声的情况下。现有方法要么需要访问驱动噪声或初始条件,这在实际应用中通常不可行;要么依赖于确定性替代模型,无法准确捕捉SPDEs内在的随机性,导致预测结果与真实分布存在偏差。

核心思路:论文的核心思路是将SPDEs分解为确定性演化部分和随机驱动部分,并使用潜变量模型来学习这两部分。具体而言,利用谱Galerkin投影将SPDEs投影到有限维空间,然后使用截断的Wiener混沌展开来表示随机驱动项。这样,SPDEs就被转化为一个由参数化的常微分方程组描述的潜变量模型,其中潜变量对应于Wiener混沌展开的系数。

技术框架:整体框架包含以下几个主要步骤:1) 使用谱Galerkin方法将SPDEs投影到有限维空间。2) 使用截断的Wiener混沌展开来表示随机驱动项,将SPDEs转化为潜变量模型。3) 使用变分自编码器(VAE)来学习潜变量模型的参数,包括确定性演化部分的参数和随机驱动部分的参数。VAE的编码器从观测数据中推断潜变量的后验分布,解码器则根据潜变量重构观测数据。4) 通过最小化重构误差和KL散度来训练VAE,从而学习到SPDEs的动力学规律。

关键创新:论文的关键创新在于将Wiener混沌展开与潜变量模型相结合,从而实现了在没有噪声数据的情况下学习SPDEs的随机动力学。与现有方法相比,该方法不需要访问驱动噪声或初始条件,并且能够准确捕捉SPDEs内在的随机性。此外,通过使用谱Galerkin投影和截断的Wiener混沌展开,可以将无限维SPDEs转化为有限维的潜变量模型,从而降低了计算复杂度。

关键设计:论文的关键设计包括:1) 选择合适的谱基函数进行Galerkin投影,例如傅里叶基或勒让德基。2) 确定Wiener混沌展开的截断阶数,需要在精度和计算复杂度之间进行权衡。3) 设计合适的VAE结构,包括编码器和解码器的网络结构、激活函数等。4) 选择合适的损失函数,包括重构误差和KL散度,并调整它们的权重。5) 使用合适的优化算法来训练VAE,例如Adam或SGD。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文在合成数据上进行了实验,结果表明该方法在有界和无界一维空间域上均取得了最先进的性能。具体而言,该方法能够准确地学习到SPDEs的动力学规律,并能够生成与真实数据相似的样本。此外,该方法还能够有效地处理噪声数据,并且具有较好的鲁棒性。实验结果验证了该方法的有效性和优越性。

🎯 应用场景

该研究成果可应用于多个领域,例如气候建模、流体动力学、金融建模等。通过学习随机偏微分方程,可以更好地理解和预测复杂系统的行为,例如预测天气变化、模拟流体流动、评估金融风险等。此外,该方法还可以用于控制随机系统,例如优化化学反应过程、设计鲁棒的控制系统等。未来,该方法有望在科学研究和工程实践中发挥重要作用。

📄 摘要(原文)

We study the problem of learning the law of linear stochastic partial differential equations (SPDEs) with additive Gaussian forcing from spatiotemporal observations. Most existing deep learning approaches either assume access to the driving noise or initial condition, or rely on deterministic surrogate models that fail to capture intrinsic stochasticity. We propose a structured latent-variable formulation that requires only observations of solution realizations and learns the underlying randomly forced dynamics. Our approach combines a spectral Galerkin projection with a truncated Wiener chaos expansion, yielding a principled separation between deterministic evolution and stochastic forcing. This reduces the infinite-dimensional SPDE to a finite system of parametrized ordinary differential equations governing latent temporal dynamics. The latent dynamics and stochastic forcing are jointly inferred through variational learning, allowing recovery of stochastic structure without explicit observation or simulation of noise during training. Empirical evaluation on synthetic data demonstrates state-of-the-art performance under comparable modeling assumptions across bounded and unbounded one-dimensional spatial domains.