Physics-Informed Deformable Gaussian Splatting: Towards Unified Constitutive Laws for Time-Evolving Material Field
作者: Haoqin Hong, Ding Fan, Fubin Dou, Zhi-Li Zhou, Haoran Sun, Congcong Zhu, Jingrun Chen
分类: cs.CV, cs.AI
发布日期: 2025-11-09 (更新: 2025-11-22)
备注: Accepted by AAAI-26
💡 一句话要点
提出物理信息可变形高斯溅射,统一时变材料场的本构定律,提升动态场景重建质量。
🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)
关键词: 3D高斯溅射 动态场景重建 物理信息 可变形模型 光流监督
📋 核心要点
- 传统3DGS在动态场景重建中难以捕捉复杂的物理驱动运动模式,导致重建质量下降。
- PIDG将高斯粒子视为拉格朗日材料点,引入物理约束和光流监督,实现物理一致的动态重建。
- 实验表明,PIDG在物理一致性和单目动态重建质量上均优于现有方法,尤其是在物理驱动数据集上。
📝 摘要(中文)
本文提出物理信息可变形高斯溅射(PIDG),旨在解决纯数据驱动的3D高斯溅射(3DGS)难以捕捉动态场景中多样物理驱动运动模式的问题。PIDG将每个高斯粒子视为具有时变本构参数的拉格朗日材料点,并通过运动投影接受2D光流的监督。具体而言,采用静态-动态解耦的4D分解哈希编码来高效地重建几何和运动。然后,施加柯西动量残差作为物理约束,从而能够通过时变材料场独立预测每个粒子的速度和本构应力。最后,通过将拉格朗日粒子流与相机补偿光流匹配来进一步监督数据拟合,从而加速收敛并提高泛化能力。在自定义物理驱动数据集以及标准合成和真实世界数据集上的实验表明,在物理一致性和单目动态重建质量方面均取得了显著提升。
🔬 方法详解
问题定义:现有基于3DGS的动态场景重建方法主要依赖数据驱动,缺乏对场景内在物理规律的建模,导致在复杂运动模式下重建效果不佳,难以保证物理一致性。尤其是在涉及形变、碰撞等物理过程的场景中,纯数据驱动的方法泛化能力较弱。
核心思路:PIDG的核心思路是将3DGS中的每个高斯粒子视为一个拉格朗日材料点,并赋予其时变的本构参数。通过引入柯西动量方程作为物理约束,并结合光流监督,使得模型能够学习到场景中的物理规律,从而实现更准确、更具物理一致性的动态场景重建。这种方法将数据驱动与物理知识相结合,弥补了纯数据驱动方法的不足。
技术框架:PIDG的整体框架包括以下几个主要模块:1) 静态-动态解耦的4D分解哈希编码,用于高效地重建几何和运动信息;2) 基于柯西动量方程的物理约束模块,用于约束粒子的运动;3) 基于光流监督的数据拟合模块,用于加速收敛并提高泛化能力。整个流程首先利用哈希编码提取特征,然后通过物理约束和光流监督优化高斯粒子的参数,最终实现动态场景的重建。
关键创新:PIDG最重要的创新点在于将物理信息融入到3DGS框架中。具体来说,它将高斯粒子视为拉格朗日材料点,并引入了柯西动量方程作为物理约束。这种方法使得模型能够学习到场景中的物理规律,从而实现更准确、更具物理一致性的动态场景重建。与现有方法相比,PIDG不再仅仅依赖数据驱动,而是将物理知识作为先验信息融入到模型中,从而提高了模型的泛化能力和鲁棒性。
关键设计:PIDG的关键设计包括:1) 静态-动态解耦的4D分解哈希编码,用于高效地表示场景的几何和运动信息;2) 柯西动量残差作为物理约束,用于约束粒子的运动;3) 将拉格朗日粒子流与相机补偿光流匹配,作为数据拟合的监督信号;4) 时变本构参数的预测,允许每个粒子具有独立的物理属性。
📊 实验亮点
PIDG在自定义物理驱动数据集以及标准合成和真实世界数据集上进行了实验。实验结果表明,PIDG在物理一致性和单目动态重建质量方面均取得了显著提升。具体来说,PIDG在物理驱动数据集上的重建误差降低了XX%,在标准数据集上的重建质量也优于现有方法。
🎯 应用场景
PIDG在机器人导航、自动驾驶、虚拟现实、游戏开发等领域具有广泛的应用前景。例如,在机器人导航中,PIDG可以用于重建动态环境,帮助机器人更好地理解和适应周围环境。在自动驾驶中,PIDG可以用于预测行人和车辆的运动轨迹,提高驾驶安全性。在虚拟现实和游戏开发中,PIDG可以用于创建更逼真的动态场景,提升用户体验。
📄 摘要(原文)
Recently, 3D Gaussian Splatting (3DGS), an explicit scene representation technique, has shown significant promise for dynamic novel-view synthesis from monocular video input. However, purely data-driven 3DGS often struggles to capture the diverse physics-driven motion patterns in dynamic scenes. To fill this gap, we propose Physics-Informed Deformable Gaussian Splatting (PIDG), which treats each Gaussian particle as a Lagrangian material point with time-varying constitutive parameters and is supervised by 2D optical flow via motion projection. Specifically, we adopt static-dynamic decoupled 4D decomposed hash encoding to reconstruct geometry and motion efficiently. Subsequently, we impose the Cauchy momentum residual as a physics constraint, enabling independent prediction of each particle's velocity and constitutive stress via a time-evolving material field. Finally, we further supervise data fitting by matching Lagrangian particle flow to camera-compensated optical flow, which accelerates convergence and improves generalization. Experiments on a custom physics-driven dataset as well as on standard synthetic and real-world datasets demonstrate significant gains in physical consistency and monocular dynamic reconstruction quality.