TriaGS: Differentiable Triangulation-Guided Geometric Consistency for 3D Gaussian Splatting

📄 arXiv: 2512.06269v1 📥 PDF

作者: Quan Tran, Tuan Dang

分类: cs.CV

发布日期: 2025-12-06

备注: 10 pages

期刊: WACV 2026


💡 一句话要点

TriaGS:通过可微三角测量引导几何一致性的3D高斯溅射

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱七:动作重定向 (Motion Retargeting)

关键词: 3D高斯溅射 新视角合成 几何一致性 三角测量 多视角重建

📋 核心要点

  1. 3D高斯溅射依赖光度损失,易产生“漂浮物”伪影和非结构化几何体,限制了高保真表面的提取。
  2. TriaGS通过约束多视角三角测量,增强全局几何一致性,利用多视角信息达成3D表示共识。
  3. 实验表明,TriaGS在多个数据集上实现了SOTA结果,DTU数据集上Chamfer距离达到0.50毫米。

📝 摘要(中文)

3D高斯溅射因其效率和渲染照片级真实图像的能力,在实时新视角合成中至关重要。然而,构建3D高斯模型仅由光度损失引导,这可能导致重建中的不一致性。这种欠约束的过程通常会导致“漂浮物”伪影和非结构化几何体,从而阻碍了高保真表面的提取。为了解决这个问题,本文提出了一种新方法,通过约束多视角三角测量来加强全局几何一致性,从而改进重建。我们的方法旨在通过利用各种估计的视图,在物理世界中的3D表示上达成共识。我们通过惩罚渲染的3D点与鲁棒共识点(从自监督方式的相邻视图束中重新三角化得到)的偏差来优化此过程。我们在多个数据集上证明了我们方法的有效性,实现了最先进的结果。在DTU数据集上,我们的方法达到了0.50毫米的平均Chamfer距离,优于可比的显式方法。我们将开源我们的代码,以方便社区验证并确保可重复性。

🔬 方法详解

问题定义:现有3D高斯溅射方法主要依赖光度损失进行优化,缺乏对几何一致性的约束。这导致重建结果中出现“漂浮物”伪影,几何结构不规则,难以提取高质量的表面模型。因此,如何提升3D高斯溅射的几何重建质量是一个关键问题。

核心思路:TriaGS的核心思路是通过引入多视角几何约束来提升3D高斯溅射的重建质量。具体而言,该方法利用多视角图像进行三角测量,得到一个鲁棒的3D点作为共识点,然后惩罚渲染的3D点与该共识点的偏差。这样可以有效地约束3D高斯溅射的优化过程,使其更加符合真实的几何结构。

技术框架:TriaGS的整体框架包括以下几个主要步骤:1) 使用现有的3D高斯溅射方法初始化场景;2) 对每个3D高斯点,从多个相邻视角进行三角测量,得到一个鲁棒的共识3D点;3) 计算渲染的3D点与共识3D点之间的偏差,并将其作为几何一致性损失;4) 将几何一致性损失与光度损失结合起来,共同优化3D高斯溅射的参数。

关键创新:TriaGS的关键创新在于引入了可微的三角测量过程,并将其与3D高斯溅射的优化过程相结合。通过这种方式,该方法可以有效地利用多视角几何信息来约束3D高斯溅射的重建过程,从而提升重建质量。与现有方法相比,TriaGS不需要额外的深度信息或其他先验知识,可以直接从多视角图像中学习到高质量的3D模型。

关键设计:在TriaGS中,一个关键的设计是共识3D点的计算方法。该方法采用了一种鲁棒的三角测量方法,以减少噪声和异常值的影响。此外,几何一致性损失的设计也至关重要。该方法采用了一种基于Chamfer距离的损失函数,以衡量渲染的3D点与共识3D点之间的偏差。损失函数的权重需要仔细调整,以平衡光度损失和几何一致性损失之间的关系。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

TriaGS在多个数据集上取得了SOTA结果。在DTU数据集上,TriaGS的平均Chamfer距离达到了0.50毫米,显著优于其他显式方法。实验结果表明,TriaGS能够有效地提升3D高斯溅射的几何重建质量,减少“漂浮物”伪影,并生成更加真实、一致的3D模型。

🎯 应用场景

TriaGS具有广泛的应用前景,包括:1) 新视角合成:可以生成高质量、几何一致的新视角图像;2) 3D重建:可以从多视角图像中重建出高保真度的3D模型,应用于虚拟现实、增强现实等领域;3) 机器人导航:可以为机器人提供准确的3D环境地图,帮助机器人进行导航和避障。未来,该技术有望应用于自动驾驶、城市建模等更广泛的领域。

📄 摘要(原文)

3D Gaussian Splatting is crucial for real-time novel view synthesis due to its efficiency and ability to render photorealistic images. However, building a 3D Gaussian is guided solely by photometric loss, which can result in inconsistencies in reconstruction. This under-constrained process often results in "floater" artifacts and unstructured geometry, preventing the extraction of high-fidelity surfaces. To address this issue, our paper introduces a novel method that improves reconstruction by enforcing global geometry consistency through constrained multi-view triangulation. Our approach aims to achieve a consensus on 3D representation in the physical world by utilizing various estimated views. We optimize this process by penalizing the deviation of a rendered 3D point from a robust consensus point, which is re-triangulated from a bundle of neighboring views in a self-supervised fashion. We demonstrate the effectiveness of our method across multiple datasets, achieving state-of-the-art results. On the DTU dataset, our method attains a mean Chamfer Distance of 0.50 mm, outperforming comparable explicit methods. We will make our code open-source to facilitate community validation and ensure reproducibility.