Sparse2DGS: Sparse-View Surface Reconstruction using 2D Gaussian Splatting with Dense Point Cloud
作者: Natsuki Takama, Shintaro Ito, Koichi Ito, Hwann-Tzong Chen, Takafumi Aoki
分类: cs.CV
发布日期: 2025-05-26 (更新: 2025-05-29)
备注: Accepted to ICIP 2025
🔗 代码/项目: PROJECT_PAGE
💡 一句话要点
提出Sparse2DGS以解决稀疏视图下的3D重建问题
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 3D重建 稀疏视图 高斯分布 点云生成 虚拟现实 增强现实
📋 核心要点
- 现有的Gaussian Splatting方法依赖于大量多视图图像,导致在稀疏视图下重建精度下降。
- Sparse2DGS通过结合DUSt3R和COLMAP MVS,能够在仅有三幅图像的情况下生成高精度的3D点云。
- 实验结果表明,Sparse2DGS在DTU数据集上成功重建了对象的3D形状,显示出显著的性能提升。
📝 摘要(中文)
Gaussian Splatting(GS)作为一种快速有效的新视图合成方法,已被应用于多视图图像的3D重建。然而,GS依赖于大量的多视图图像,导致在仅有有限输入图像时重建精度显著下降。本文提出了一种新的3D重建方法Sparse2DGS,旨在仅使用三幅图像来增强2DGS的重建能力。Sparse2DGS结合了DUSt3R模型和COLMAP MVS技术,生成高精度和密集的3D点云,以此初始化2D高斯。实验结果表明,Sparse2DGS能够准确重建对象的3D形状,展示了其在稀疏视图条件下的有效性。
🔬 方法详解
问题定义:本文旨在解决在仅有少量输入图像时,3D重建精度下降的问题。现有的Gaussian Splatting方法在稀疏视图条件下表现不佳,主要由于通过运动结构法(SfM)获得的3D点云数量不足,导致高斯原件优化的初始化不佳。
核心思路:Sparse2DGS的核心思路是利用DUSt3R模型和COLMAP MVS生成高精度的密集3D点云,进而为2D高斯的初始化提供更好的基础。这种设计旨在提升在稀疏视图条件下的重建效果。
技术框架:Sparse2DGS的整体架构包括三个主要阶段:首先,使用DUSt3R模型处理立体图像以生成初步的3D点云;其次,利用COLMAP MVS进一步优化和密集化这些点云;最后,基于优化后的点云初始化2D高斯进行重建。
关键创新:Sparse2DGS的主要创新在于其能够在仅使用三幅图像的情况下,生成高质量的3D重建结果。这一方法显著改善了传统GS方法在稀疏视图下的性能,突破了依赖大量视图的限制。
关键设计:在设计中,Sparse2DGS采用了特定的参数设置以优化点云生成过程,并使用了适合的损失函数来确保高斯的准确初始化。此外,网络结构经过精心设计,以适应稀疏输入的特性。
📊 实验亮点
在DTU数据集上的实验结果表明,Sparse2DGS能够在仅使用三幅图像的情况下,成功重建3D形状,重建精度显著高于传统方法,具体性能提升幅度未知,展示了其在稀疏视图重建中的有效性。
🎯 应用场景
该研究的潜在应用领域包括虚拟现实、增强现实、机器人导航和文化遗产保护等。Sparse2DGS能够在资源有限的情况下实现高质量的3D重建,具有重要的实际价值,未来可能推动相关技术在多个行业的应用与发展。
📄 摘要(原文)
Gaussian Splatting (GS) has gained attention as a fast and effective method for novel view synthesis. It has also been applied to 3D reconstruction using multi-view images and can achieve fast and accurate 3D reconstruction. However, GS assumes that the input contains a large number of multi-view images, and therefore, the reconstruction accuracy significantly decreases when only a limited number of input images are available. One of the main reasons is the insufficient number of 3D points in the sparse point cloud obtained through Structure from Motion (SfM), which results in a poor initialization for optimizing the Gaussian primitives. We propose a new 3D reconstruction method, called Sparse2DGS, to enhance 2DGS in reconstructing objects using only three images. Sparse2DGS employs DUSt3R, a fundamental model for stereo images, along with COLMAP MVS to generate highly accurate and dense 3D point clouds, which are then used to initialize 2D Gaussians. Through experiments on the DTU dataset, we show that Sparse2DGS can accurately reconstruct the 3D shapes of objects using just three images. The project page is available at https://gsisaoki.github.io/SPARSE2DGS/