OceanSplat: Object-aware Gaussian Splatting with Trinocular View Consistency for Underwater Scene Reconstruction

📄 arXiv: 2601.04984v1 📥 PDF

作者: Minseong Kweon, Jinsun Park

分类: cs.CV

发布日期: 2026-01-08

备注: Accepted to AAAI 2026. Project page: https://oceansplat.github.io


💡 一句话要点

OceanSplat:利用三目一致性的水下场景物体感知高斯溅射重建

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 水下场景重建 高斯溅射 三目一致性 深度正则化 水下光学退化

📋 核心要点

  1. 水下环境的光学退化导致多视角重建中出现不一致性,现有方法难以准确恢复水下场景的3D几何结构。
  2. OceanSplat通过引入三目视角一致性约束和自监督深度正则化,优化3D高斯体的空间分布,从而保持水下场景结构。
  3. 实验结果表明,OceanSplat在真实和模拟水下场景中,显著优于现有方法,有效减少了重建中的伪影。

📝 摘要(中文)

本文提出了一种新颖的基于3D高斯溅射(Gaussian Splatting)的方法OceanSplat,用于精确表示水下场景中的3D几何结构。为了克服水下光学退化导致的多视角不一致性,我们的方法通过渲染相对于每个输入视角的水平和垂直平移相机视图,并通过逆向扭曲对齐它们,从而强制执行三目视角一致性。此外,这些平移的相机视图用于通过三角测量导出合成的极线深度先验,作为自监督深度正则化器。这些几何约束有助于3D高斯体的空间优化,并保持水下环境中的场景结构。我们还提出了一种深度感知的alpha调整,它根据3D高斯体的z分量和观察方向,在早期训练期间调节其不透明度,从而阻止介质引起的伪影的形成。通过我们的贡献,3D高斯体与散射介质分离,从而能够稳健地表示物体几何结构,并显著减少重建水下场景中的浮动伪影。在真实水下和模拟场景上的实验表明,OceanSplat在散射介质中的场景重建和恢复方面均显著优于现有方法。

🔬 方法详解

问题定义:水下场景重建面临的主要问题是由于水的光学特性(如吸收和散射)导致图像质量下降,从而引起多视角重建中的不一致性。现有的方法在处理这些问题时,通常难以准确地恢复场景的3D几何结构,并且容易产生伪影,影响重建质量。

核心思路:OceanSplat的核心思路是通过引入三目视角一致性约束和自监督深度正则化来优化3D高斯体的空间分布。通过模拟水平和垂直方向的平移视角,并利用逆向扭曲进行对齐,从而增强视角一致性。同时,利用这些平移视角生成深度先验,作为深度正则化项,引导高斯体的优化。

技术框架:OceanSplat的整体框架基于3D高斯溅射。首先,从多视角图像中初始化3D高斯体。然后,通过渲染模块生成不同视角的图像,并计算三目视角一致性损失和深度正则化损失。利用这些损失函数优化高斯体的参数,包括位置、旋转、缩放和颜色等。此外,还引入了深度感知的alpha调整策略,以抑制早期训练中由介质引起的伪影。

关键创新:OceanSplat的关键创新在于以下两点:一是引入了三目视角一致性约束,通过模拟平移视角并进行对齐,增强了视角之间的一致性,从而提高了重建的准确性。二是提出了自监督深度正则化,利用平移视角生成的深度先验,引导高斯体的优化,避免了过度拟合和伪影的产生。

关键设计:在三目视角一致性方面,通过对每个输入视角进行水平和垂直方向的平移,生成额外的视角。然后,利用逆向扭曲将这些平移视角对齐到原始视角,并计算像素之间的差异作为损失函数。在深度正则化方面,利用平移视角通过三角测量生成深度图,并将其作为高斯体深度的先验信息。此外,深度感知的alpha调整策略根据高斯体的深度和观察方向,动态调整其不透明度,以抑制早期训练中的伪影。

📊 实验亮点

OceanSplat在真实水下和模拟场景中进行了实验验证,结果表明该方法显著优于现有的水下场景重建方法。具体而言,OceanSplat在重建质量和视觉效果上均有明显提升,能够有效减少水下散射介质引起的伪影,并更准确地恢复场景的几何结构。定量结果(具体数值未知)表明,OceanSplat在各项指标上均取得了显著的进步。

🎯 应用场景

OceanSplat在水下机器人导航、水下考古、海洋生物监测和水下环境建模等领域具有广泛的应用前景。该方法能够提供更准确、更清晰的水下场景三维重建结果,有助于提高水下作业的效率和安全性,并为相关科学研究提供有力支持。未来,该技术有望应用于更复杂的海洋环境中,例如浑浊度更高的水域或光照条件更差的区域。

📄 摘要(原文)

We introduce OceanSplat, a novel 3D Gaussian Splatting-based approach for accurately representing 3D geometry in underwater scenes. To overcome multi-view inconsistencies caused by underwater optical degradation, our method enforces trinocular view consistency by rendering horizontally and vertically translated camera views relative to each input view and aligning them via inverse warping. Furthermore, these translated camera views are used to derive a synthetic epipolar depth prior through triangulation, which serves as a self-supervised depth regularizer. These geometric constraints facilitate the spatial optimization of 3D Gaussians and preserve scene structure in underwater environments. We also propose a depth-aware alpha adjustment that modulates the opacity of 3D Gaussians during early training based on their $z$-component and viewing direction, deterring the formation of medium-induced primitives. With our contributions, 3D Gaussians are disentangled from the scattering medium, enabling robust representation of object geometry and significantly reducing floating artifacts in reconstructed underwater scenes. Experiments on real-world underwater and simulated scenes demonstrate that OceanSplat substantially outperforms existing methods for both scene reconstruction and restoration in scattering media.