Physics-informed neural particle flow for the Bayesian update step

📄 arXiv: 2602.23089 📥 PDF

作者: Domonkos Csuzdi, Tamás Bécsi, Olivér Törő

分类: cs.LG

发布日期: 2026-02-28


💡 一句话要点

提出物理信息神经粒子流,用于贝叶斯更新中的高效概率密度传输

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 贝叶斯更新 粒子流 物理信息神经网络 概率密度传输 无监督学习

📋 核心要点

  1. 高维非线性贝叶斯更新计算成本高,现有方法如粒子滤波存在数值刚性或忽略概率传输的几何结构。
  2. 论文提出物理信息神经粒子流,将对数同伦轨迹与连续性方程结合,通过求解主PDE来学习传输速度场。
  3. 实验表明,该方法能有效降低数值刚性,提高模式覆盖率和鲁棒性,优于现有方法。

📝 摘要(中文)

贝叶斯更新步骤在高维非线性估计中面临巨大的计算挑战。对数同伦粒子流滤波器为随机采样提供了一种替代方案,但现有公式通常产生刚性微分方程。现有的深度学习近似通常将更新视为黑盒任务,或依赖于渐近松弛,忽略了有限视界概率传输的精确几何结构。本文提出了一种物理信息神经粒子流,这是一种可分摊的推理框架。为了构建该流,我们将先验到后验密度函数的对数同伦轨迹与描述密度演化的连续性方程相结合。这种推导产生了一个控制偏微分方程(PDE),称为主PDE。通过将该PDE作为物理约束嵌入到损失函数中,我们训练一个神经网络来近似传输速度场。这种方法实现了纯无监督训练,无需ground-truth后验样本。实验验证表明,神经参数化充当隐式正则化器,减轻了解析流固有的数值刚度,并降低了在线计算复杂度。在多模态基准和一个具有挑战性的非线性场景中的实验验证表明,与最先进的基线相比,该方法具有更好的模式覆盖率和鲁棒性。

🔬 方法详解

问题定义:贝叶斯更新在高维非线性系统中计算复杂度高,传统的粒子滤波方法计算量大,且容易出现粒子退化问题。现有的基于深度学习的方法,要么将贝叶斯更新视为黑盒,忽略了概率密度演化的内在物理规律,要么依赖于渐近近似,无法保证精度。这些方法在处理复杂、多模态的后验分布时表现不佳,且容易受到数值刚性的影响。

核心思路:论文的核心思路是将贝叶斯更新过程建模为一个概率密度传输问题,利用对数同伦方法建立先验分布到后验分布的连续轨迹。然后,利用连续性方程描述密度演化过程,推导出控制该演化的偏微分方程(PDE),即主PDE。通过学习满足该PDE的传输速度场,可以实现高效且精确的贝叶斯更新。

技术框架:整体框架包括以下几个步骤:1) 利用对数同伦方法建立先验和后验分布之间的轨迹;2) 推导描述密度演化的连续性方程,得到主PDE;3) 使用神经网络近似传输速度场;4) 将主PDE作为物理约束嵌入到损失函数中,进行无监督训练。训练完成后,可以使用训练好的神经网络进行在线贝叶斯更新。

关键创新:论文的关键创新在于将物理信息融入到神经粒子流中。具体来说,通过将描述概率密度演化的主PDE嵌入到损失函数中,使得神经网络在学习传输速度场时,能够考虑到概率密度演化的物理规律,从而提高模型的精度和鲁棒性。此外,该方法实现了纯无监督训练,无需ground-truth后验样本,降低了对数据的依赖。

关键设计:关键设计包括:1) 使用神经网络参数化传输速度场,网络结构的选择需要根据具体问题进行调整;2) 将主PDE作为物理约束嵌入到损失函数中,损失函数的设计需要平衡精度和稳定性;3) 使用合适的优化算法训练神经网络,例如Adam等;4) 对数同伦参数的选择也会影响模型的性能,需要根据具体问题进行调整。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在多模态基准测试和非线性场景中,相比于现有方法,能够更好地覆盖后验分布的多个模式,具有更强的鲁棒性。通过将物理信息融入到神经网络中,该方法能够有效地缓解数值刚性问题,降低在线计算复杂度。具体性能提升数据在论文中有详细展示。

🎯 应用场景

该研究成果可应用于机器人定位与导航、目标跟踪、状态估计、参数估计等领域。在这些领域中,贝叶斯更新是核心步骤,而高维非线性问题普遍存在。该方法能够提高贝叶斯更新的效率和精度,从而提升相关系统的性能和鲁棒性。未来,该方法有望应用于更复杂的动态系统建模和控制问题。

📄 摘要(原文)

The Bayesian update step poses significant computational challenges in high-dimensional nonlinear estimation. While log-homotopy particle flow filters offer an alternative to stochastic sampling, existing formulations usually yield stiff differential equations. Conversely, existing deep learning approximations typically treat the update as a black-box task or rely on asymptotic relaxation, neglecting the exact geometric structure of the finite-horizon probability transport. In this work, we propose a physics-informed neural particle flow, which is an amortized inference framework. To construct the flow, we couple the log-homotopy trajectory of the prior to posterior density function with the continuity equation describing the density evolution. This derivation yields a governing partial differential equation (PDE), referred to as the master PDE. By embedding this PDE as a physical constraint into the loss function, we train a neural network to approximate the transport velocity field. This approach enables purely unsupervised training, eliminating the need for ground-truth posterior samples. We demonstrate that the neural parameterization acts as an implicit regularizer, mitigating the numerical stiffness inherent to analytic flows and reducing online computational complexity. Experimental validation on multimodal benchmarks and a challenging nonlinear scenario confirms better mode coverage and robustness compared to state-of-the-art baselines.