SurfaceSplat: Connecting Surface Reconstruction and Gaussian Splatting
作者: Zihui Gao, Jia-Wang Bian, Guosheng Lin, Hao Chen, Chunhua Shen
分类: cs.CV
发布日期: 2025-07-21 (更新: 2025-07-28)
备注: Accepted to ICCV 2025
🔗 代码/项目: GITHUB
💡 一句话要点
SurfaceSplat:结合表面重建与高斯溅射,提升稀疏视图下的重建与渲染质量
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 表面重建 新视角合成 高斯溅射 有符号距离函数 三维重建
📋 核心要点
- 基于SDF的方法难以捕捉精细的表面细节,而基于3DGS的方法缺乏全局几何一致性,限制了重建和渲染质量。
- SurfaceSplat的核心思想是利用SDF提供粗略几何先验,指导3DGS渲染;同时,利用3DGS渲染结果反过来优化SDF,实现相互增强。
- 在DTU和MobileBrick数据集上的实验表明,SurfaceSplat在表面重建和新视角合成任务上均优于现有技术水平。
📝 摘要(中文)
本文提出了一种新颖的混合方法,用于解决从稀疏视图图像中进行表面重建和新视角渲染的挑战。该方法结合了基于有符号距离函数(SDF)的方法和基于3D高斯溅射(3DGS)的方法的优势。SDF捕获粗略的几何形状,以增强基于3DGS的渲染,而来自3DGS的新渲染图像则细化SDF的细节,从而实现精确的表面重建。实验结果表明,我们的方法在DTU和MobileBrick数据集上超越了最先进的表面重建和新视角合成方法。
🔬 方法详解
问题定义:论文旨在解决从稀疏视图图像中进行高质量表面重建和新视角渲染的问题。现有方法,如基于SDF的方法,虽然能保证全局几何一致性,但在捕捉精细细节方面存在不足。而基于3DGS的方法虽然渲染质量高,但缺乏全局几何约束,容易产生漂浮伪影,导致几何不一致性。
核心思路:SurfaceSplat的核心思路是将SDF和3DGS两种方法结合起来,利用SDF的全局几何先验来约束3DGS的优化,同时利用3DGS的高质量渲染结果来细化SDF的细节。通过这种相互增强的方式,克服了各自的缺点,实现了更好的重建和渲染效果。
技术框架:SurfaceSplat的整体框架包含两个主要模块:SDF模块和3DGS模块。首先,利用输入图像初始化SDF。然后,使用SDF作为几何先验,初始化和优化3DGS。3DGS渲染出新的视角图像,这些图像被用来更新和细化SDF。这两个模块迭代进行,直到收敛。
关键创新:SurfaceSplat的关键创新在于将SDF和3DGS两种方法有机结合,实现了相互增强。具体来说,SDF提供全局几何约束,避免了3DGS的漂浮伪影;3DGS提供高质量的渲染结果,细化了SDF的细节。这种结合方式充分利用了两种方法的优势,克服了各自的缺点。
关键设计:论文中可能包含以下关键设计细节(具体细节需参考论文):损失函数的设计,可能包含渲染损失、SDF损失和几何一致性损失等,用于约束SDF和3DGS的优化;SDF的表示方式,例如使用MLP表示SDF;3DGS的初始化策略,如何利用SDF初始化高斯参数;以及迭代优化过程中的参数更新策略等。由于论文摘要未提供具体细节,此处为推测。
🖼️ 关键图片
📊 实验亮点
SurfaceSplat在DTU和MobileBrick数据集上取得了显著的性能提升。具体来说,该方法在表面重建和新视角合成任务上均优于现有的SOTA方法。由于摘要中没有提供具体的性能数据和提升幅度,具体数值需要参考论文。
🎯 应用场景
SurfaceSplat具有广泛的应用前景,包括三维重建、虚拟现实、增强现实、机器人导航等领域。该方法可以用于从少量图像中重建高质量的三维模型,从而为这些应用提供更逼真的场景表示。此外,该方法还可以用于新视角合成,为用户提供更自由的视角体验。
📄 摘要(原文)
Surface reconstruction and novel view rendering from sparse-view images are challenging. Signed Distance Function (SDF)-based methods struggle with fine details, while 3D Gaussian Splatting (3DGS)-based approaches lack global geometry coherence. We propose a novel hybrid method that combines the strengths of both approaches: SDF captures coarse geometry to enhance 3DGS-based rendering, while newly rendered images from 3DGS refine the details of SDF for accurate surface reconstruction. As a result, our method surpasses state-of-the-art approaches in surface reconstruction and novel view synthesis on the DTU and MobileBrick datasets. Code will be released at https://github.com/aim-uofa/SurfaceSplat.