FastGS: Training 3D Gaussian Splatting in 100 Seconds

📄 arXiv: 2511.04283v3 📥 PDF

作者: Shiwei Ren, Tianci Wen, Yongchun Fang, Biao Lu

分类: cs.CV

发布日期: 2025-11-06 (更新: 2025-12-06)

备注: Project page: https://fastgs.github.io/


💡 一句话要点

FastGS:基于多视角一致性的3D高斯溅射加速训练框架

🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)

关键词: 3D高斯溅射 加速训练 多视角一致性 三维重建 点云增密 点云剪枝 渲染优化

📋 核心要点

  1. 现有3D高斯溅射加速方法未能有效调节训练过程中高斯点的数量,导致冗余的计算时间开销。
  2. FastGS基于多视角一致性,设计了一种新的高斯点云增密和剪枝策略,无需预算机制,从而加速训练。
  3. 实验表明,FastGS在多个数据集和任务上显著提升了训练速度,同时保持了可比的渲染质量。

📝 摘要(中文)

本文提出FastGS,一种新颖、简单且通用的加速框架,用于加速3D高斯溅射(3DGS)的训练。该框架充分考虑了每个高斯基于多视角一致性的重要性,高效地解决了训练时间和渲染质量之间的权衡。我们创新性地设计了一种基于多视角一致性的高斯点云增密和剪枝策略,无需预算机制。在Mip-NeRF 360、Tanks & Temples和Deep Blending数据集上的大量实验表明,我们的方法在训练速度上显著优于最先进的方法。在Mip-NeRF 360数据集上,与DashGaussian相比,实现了3.32倍的训练加速,并具有相当的渲染质量;在Deep Blending数据集上,与vanilla 3DGS相比,实现了15.45倍的加速。FastGS表现出强大的通用性,在各种任务中实现了2-7倍的训练加速,包括动态场景重建、表面重建、稀疏视图重建、大规模重建以及同步定位与地图构建。

🔬 方法详解

问题定义:现有3D高斯溅射(3DGS)加速方法在训练过程中,对高斯点的数量控制不足,导致计算资源浪费和训练时间过长。这些方法通常采用预算机制,但效果有限,无法在训练速度和渲染质量之间取得最佳平衡。

核心思路:FastGS的核心思路是基于多视角一致性来评估每个高斯点的重要性,并根据重要性动态地进行增密和剪枝。多视角一致性意味着,如果一个高斯点在多个视角下都能被观测到,并且渲染结果一致,那么它就更重要,应该保留;反之,则应该被剪枝。

技术框架:FastGS的整体框架主要包括以下几个阶段:1) 初始化:初始化一组高斯点;2) 渲染:从多个视角渲染图像;3) 多视角一致性评估:计算每个高斯点在不同视角下的一致性;4) 增密:根据多视角一致性,对重要的高斯点进行增密;5) 剪枝:根据多视角一致性,对不重要的高斯点进行剪枝;6) 优化:优化高斯点的参数,例如位置、颜色、不透明度等。重复2-6步,直到训练完成。

关键创新:FastGS的关键创新在于其基于多视角一致性的增密和剪枝策略。与现有方法不同,FastGS不依赖于预算机制,而是直接根据高斯点的重要性来动态调整其数量。这种方法能够更有效地利用计算资源,从而加速训练过程。

关键设计:FastGS的关键设计包括:1) 多视角一致性度量:使用一种合适的度量来衡量高斯点在不同视角下的一致性,例如渲染颜色差异的加权和;2) 增密策略:根据多视角一致性得分,对得分高的区域进行高斯点增密,例如分裂现有高斯点或添加新的高斯点;3) 剪枝策略:根据多视角一致性得分,对得分低的区域进行高斯点剪枝,例如直接移除高斯点或将其不透明度设置为零。

📊 实验亮点

FastGS在多个数据集上取得了显著的加速效果。在Mip-NeRF 360数据集上,与DashGaussian相比,实现了3.32倍的训练加速,并具有相当的渲染质量。在Deep Blending数据集上,与vanilla 3DGS相比,实现了15.45倍的加速。此外,FastGS在动态场景重建、表面重建、稀疏视图重建、大规模重建以及同步定位与地图构建等多个任务中均表现出优异的性能,实现了2-7倍的训练加速。

🎯 应用场景

FastGS具有广泛的应用前景,包括:1) 快速三维重建:可用于快速重建静态和动态场景,例如城市建模、室内场景重建等;2) 虚拟现实/增强现实:可用于创建逼真的虚拟环境和增强现实体验;3) 机器人导航:可用于机器人的环境感知和定位;4) 自动驾驶:可用于自动驾驶车辆的环境建模和场景理解。该研究的加速效果能够降低3D重建的计算成本,促进相关技术的普及。

📄 摘要(原文)

The dominant 3D Gaussian splatting (3DGS) acceleration methods fail to properly regulate the number of Gaussians during training, causing redundant computational time overhead. In this paper, we propose FastGS, a novel, simple, and general acceleration framework that fully considers the importance of each Gaussian based on multi-view consistency, efficiently solving the trade-off between training time and rendering quality. We innovatively design a densification and pruning strategy based on multi-view consistency, dispensing with the budgeting mechanism. Extensive experiments on Mip-NeRF 360, Tanks & Temples, and Deep Blending datasets demonstrate that our method significantly outperforms the state-of-the-art methods in training speed, achieving a 3.32$\times$ training acceleration and comparable rendering quality compared with DashGaussian on the Mip-NeRF 360 dataset and a 15.45$\times$ acceleration compared with vanilla 3DGS on the Deep Blending dataset. We demonstrate that FastGS exhibits strong generality, delivering 2-7$\times$ training acceleration across various tasks, including dynamic scene reconstruction, surface reconstruction, sparse-view reconstruction, large-scale reconstruction, and simultaneous localization and mapping. The project page is available at https://fastgs.github.io/