POTR: Post-Training 3DGS Compression

📄 arXiv: 2601.14821v1 📥 PDF

作者: Bert Ramlot, Martijn Courteaux, Peter Lambert, Glenn Van Wallendael

分类: cs.CV

发布日期: 2026-01-21

备注: 15 pages, 12 figures. Submitted to IEEE TCSVT, under review


💡 一句话要点

POTR:一种用于3D高斯溅射的后训练压缩方法,显著提升推理速度并降低存储需求。

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 3D高斯溅射 模型压缩 后训练量化 剪枝 实时渲染 神经辐射场 率失真优化

📋 核心要点

  1. 3D高斯溅射(3DGS)虽然在渲染速度上优于NeRF,但其存储空间占用过大,限制了其应用。
  2. POTR通过新颖的剪枝策略和光照系数优化方法,在不进行额外训练的情况下,有效压缩3DGS模型。
  3. 实验结果表明,POTR在率失真性能和推理速度上均优于其他后训练压缩方法,具有显著优势。

📝 摘要(中文)

3D高斯溅射(3DGS)最近在3D场景重建和实时新视角合成方面成为神经辐射场(NeRF)的一个有希望的竞争者。3DGS在训练和推理速度上优于NeRF,但存储需求明显更高。为了解决这个缺点,我们提出了POTR,一个基于两种新技术的后训练3DGS编解码器。首先,POTR引入了一种新颖的剪枝方法,该方法使用改进的3DGS光栅化器来有效地同时计算每个splat的单独移除效果。该技术产生的splat比其他后训练剪枝技术少2-4倍,因此也显著加快了推理速度,实验表明推理速度比其他压缩模型快1.5-2倍。其次,我们提出了一种重新计算光照系数的新方法,在不使用任何形式的训练的情况下显著降低了它们的熵。我们快速且高度并行的方法尤其提高了AC光照系数的稀疏性,实验表明从70%提高到97%,而质量损失最小。最后,我们使用一个简单的微调方案扩展了POTR,以进一步增强剪枝、推理和率失真性能。实验表明,即使没有微调,POTR在率失真性能和推理速度方面也始终优于所有其他后训练压缩技术。

🔬 方法详解

问题定义:3D高斯溅射(3DGS)虽然渲染速度快,但其存储需求高昂,限制了其在资源受限设备上的应用。现有的压缩方法可能导致显著的质量下降或推理速度降低。

核心思路:POTR的核心思路是在后训练阶段,通过高效的剪枝和光照系数优化,在不进行额外训练的情况下,显著降低3DGS模型的存储需求,同时保持甚至提升渲染质量和推理速度。这种方法避免了耗时的重新训练过程,更易于应用。

技术框架:POTR包含两个主要阶段:1) 基于改进光栅化器的剪枝:使用修改后的3DGS光栅化器,并行计算每个高斯splat的移除效果,从而高效地进行剪枝。2) 光照系数优化:重新计算光照系数,特别是增加AC光照系数的稀疏性,从而降低其熵。可选地,可以进行一个简单的微调阶段,以进一步提升性能。

关键创新:POTR的关键创新在于其高效的剪枝策略和光照系数优化方法。传统的剪枝方法通常需要迭代地评估每个splat的重要性,而POTR通过修改光栅化器,实现了并行评估,大大提高了剪枝效率。此外,POTR的光照系数优化方法无需训练,即可显著提高稀疏性。

关键设计:在剪枝阶段,POTR修改了3DGS的光栅化器,使其能够同时计算每个splat的移除效果。在光照系数优化阶段,POTR采用了一种快速且高度并行的方法来重新计算光照系数,目标是最大化AC光照系数的稀疏性。微调阶段使用简单的损失函数来进一步优化剪枝和光照系数。

📊 实验亮点

POTR在实验中表现出色,无需微调即可在率失真性能和推理速度方面超越其他后训练压缩技术。POTR的剪枝策略能够减少2-4倍的splat数量,推理速度提升1.5-2倍。此外,POTR能够将AC光照系数的稀疏性从70%提高到97%,同时保持最小的质量损失。

🎯 应用场景

POTR可应用于各种需要实时渲染和存储受限的3D场景应用,例如移动端的AR/VR应用、自动驾驶中的场景重建、以及游戏开发等。通过降低3DGS模型的存储需求和提高推理速度,POTR能够使这些应用在资源受限的平台上运行,并提供更好的用户体验。

📄 摘要(原文)

3D Gaussian Splatting (3DGS) has recently emerged as a promising contender to Neural Radiance Fields (NeRF) in 3D scene reconstruction and real-time novel view synthesis. 3DGS outperforms NeRF in training and inference speed but has substantially higher storage requirements. To remedy this downside, we propose POTR, a post-training 3DGS codec built on two novel techniques. First, POTR introduces a novel pruning approach that uses a modified 3DGS rasterizer to efficiently calculate every splat's individual removal effect simultaneously. This technique results in 2-4x fewer splats than other post-training pruning techniques and as a result also significantly accelerates inference with experiments demonstrating 1.5-2x faster inference than other compressed models. Second, we propose a novel method to recompute lighting coefficients, significantly reducing their entropy without using any form of training. Our fast and highly parallel approach especially increases AC lighting coefficient sparsity, with experiments demonstrating increases from 70% to 97%, with minimal loss in quality. Finally, we extend POTR with a simple fine-tuning scheme to further enhance pruning, inference, and rate-distortion performance. Experiments demonstrate that POTR, even without fine-tuning, consistently outperforms all other post-training compression techniques in both rate-distortion performance and inference speed.