AD-GS: Alternating Densification for Sparse-Input 3D Gaussian Splatting
作者: Gurutva Patle, Nilay Girgaonkar, Nagabhushan Somraj, Rajiv Soundararajan
分类: cs.GR, cs.CV
发布日期: 2025-09-13 (更新: 2025-09-22)
备注: SIGGRAPH Asia 2025
🔗 代码/项目: PROJECT_PAGE
💡 一句话要点
AD-GS:一种用于稀疏输入3D高斯溅射的交替密集化框架
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱七:动作重定向 (Motion Retargeting)
关键词: 3D高斯溅射 新视角合成 稀疏视角 交替密集化 几何正则化
📋 核心要点
- 3D高斯溅射在稀疏视角下易产生漂浮物和几何失真,主要原因是缺乏控制的密集化过程。
- AD-GS通过交替进行高密集化和低密集化阶段,控制模型容量增长,逐步优化场景表示。
- 实验结果表明,AD-GS在渲染质量和几何一致性方面显著优于现有方法,尤其是在稀疏视角下。
📝 摘要(中文)
3D高斯溅射(3DGS)在实时新视角合成方面表现出令人印象深刻的结果。然而,在稀疏视角设置下,它经常遇到困难,由于有限的观测,会产生诸如漂浮物、不准确的几何体和过拟合等不良伪影。我们发现,一个关键的影响因素是不可控的密集化,即在没有指导的情况下快速添加高斯基元会损害几何体并导致伪影。我们提出了AD-GS,一种新颖的交替密集化框架,它交错进行高和低密集化阶段。在高密集化期间,模型积极地进行密集化,然后进行基于光度损失的训练,以捕获细粒度的场景细节。低密集化主要涉及对高斯进行积极的不透明度修剪,然后通过伪视图一致性和边缘感知深度平滑来正则化它们的几何体。这种交替方法通过仔细控制模型容量的增长,同时逐步细化场景表示,有助于减少过拟合。在具有挑战性的数据集上进行的大量实验表明,与现有方法相比,AD-GS显著提高了渲染质量和几何一致性。我们的模型的源代码可以在我们的项目页面上找到:https://gurutvapatle.github.io/publications/2025/ADGS.html 。
🔬 方法详解
问题定义:论文旨在解决3D高斯溅射(3DGS)在稀疏视角下表现不佳的问题。现有方法在稀疏视角下容易产生漂浮物、几何体不准确以及过拟合等问题,这是由于在没有有效指导的情况下过度进行高斯基元的密集化造成的。
核心思路:论文的核心思路是通过交替进行高密集化和低密集化阶段来控制模型容量的增长,并逐步优化场景表示。高密集化阶段侧重于捕获细粒度的场景细节,而低密集化阶段则侧重于修剪冗余高斯基元并正则化几何体。
技术框架:AD-GS框架包含两个主要阶段:高密集化阶段和低密集化阶段。在高密集化阶段,模型积极地添加新的高斯基元,并通过光度损失进行训练,以学习场景的细节。在低密集化阶段,模型首先通过不透明度修剪来移除不必要的高斯基元,然后通过伪视图一致性和边缘感知深度平滑来正则化剩余高斯基元的几何形状。这两个阶段交替进行,以逐步优化场景表示。
关键创新:AD-GS的关键创新在于提出了交替密集化策略,它不同于以往方法中无控制的密集化过程。通过在高密集化和低密集化之间进行平衡,AD-GS能够更有效地利用有限的观测数据,并避免过拟合。
关键设计:AD-GS的关键设计包括:1) 高密集化阶段使用光度损失来驱动高斯基元的添加和优化;2) 低密集化阶段使用不透明度修剪来移除冗余高斯基元;3) 低密集化阶段使用伪视图一致性和边缘感知深度平滑来正则化高斯基元的几何形状。这些设计共同作用,使得AD-GS能够在稀疏视角下获得更好的渲染质量和几何一致性。
📊 实验亮点
AD-GS在多个具有挑战性的数据集上进行了评估,实验结果表明,与现有方法相比,AD-GS显著提高了渲染质量和几何一致性。具体性能提升数据在论文中给出,表明该方法在稀疏视角下具有更强的鲁棒性和更高的精度。
🎯 应用场景
AD-GS在三维重建、新视角合成、虚拟现实/增强现实等领域具有广泛的应用前景。该方法能够提升在稀疏数据下的三维场景重建质量,降低对输入视角的依赖,从而降低数据采集成本,并为用户提供更逼真的沉浸式体验。未来可应用于自动驾驶、机器人导航等需要鲁棒三维感知的场景。
📄 摘要(原文)
3D Gaussian Splatting (3DGS) has shown impressive results in real-time novel view synthesis. However, it often struggles under sparse-view settings, producing undesirable artifacts such as floaters, inaccurate geometry, and overfitting due to limited observations. We find that a key contributing factor is uncontrolled densification, where adding Gaussian primitives rapidly without guidance can harm geometry and cause artifacts. We propose AD-GS, a novel alternating densification framework that interleaves high and low densification phases. During high densification, the model densifies aggressively, followed by photometric loss based training to capture fine-grained scene details. Low densification then primarily involves aggressive opacity pruning of Gaussians followed by regularizing their geometry through pseudo-view consistency and edge-aware depth smoothness. This alternating approach helps reduce overfitting by carefully controlling model capacity growth while progressively refining the scene representation. Extensive experiments on challenging datasets demonstrate that AD-GS significantly improves rendering quality and geometric consistency compared to existing methods. The source code for our model can be found on our project page: https://gurutvapatle.github.io/publications/2025/ADGS.html .