Spherical-GOF: Geometry-Aware Panoramic Gaussian Opacity Fields for 3D Scene Reconstruction

📄 arXiv: 2603.08503v1 📥 PDF

作者: Zhe Yang, Guoqiang Zhao, Sheng Wu, Kai Luo, Kailun Yang

分类: cs.CV, cs.GR, cs.RO, eess.IV

发布日期: 2026-03-09

备注: The source code and dataset will be released at https://github.com/1170632760/Spherical-GOF

🔗 代码/项目: GITHUB


💡 一句话要点

提出Spherical-GOF,解决全景图像三维重建中的几何不一致性问题。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics) 支柱七:动作重定向 (Motion Retargeting)

关键词: 全景图像 三维重建 高斯溅射 机器人视觉 几何一致性

📋 核心要点

  1. 现有3D高斯溅射方法主要针对透视投影设计,直接应用于全景相机模型会导致图像失真和几何不一致性。
  2. Spherical-GOF直接在球形射线空间进行GOF射线采样,保证了全景渲染中射线与高斯分布交互的一致性。
  3. 实验表明,Spherical-GOF在光度质量和几何一致性上均有提升,深度重投影误差降低57%,循环一致性提升21%。

📝 摘要(中文)

本文提出了一种名为Spherical-GOF的全景高斯不透明度场渲染框架,用于三维场景重建。与基于透视投影的传统方法不同,Spherical-GOF直接在球形射线空间中的单位球面上执行GOF射线采样,从而实现了全景渲染中一致的射线-高斯交互。为了提高球形射线投射的效率和鲁棒性,本文推导出了一种保守的球形边界规则,用于快速射线-高斯剔除,并引入了一种球形滤波方案,使高斯足迹适应于失真变化的全景像素采样。在OmniBlender和OmniPhotos等标准全景基准测试中,实验结果表明Spherical-GOF具有竞争力的光度质量,并显著提高了几何一致性。与最强的基线相比,Spherical-GOF将深度重投影误差降低了57%,并将循环内点率提高了21%。定性结果显示了更清晰的深度图和更连贯的法线贴图,并且对全局全景旋转具有很强的鲁棒性。本文还通过OmniRob(一个包含无人机和四足机器人平台的真实世界机器人全景数据集)验证了泛化能力。源代码和OmniRob数据集将在https://github.com/1170632760/Spherical-GOF上发布。

🔬 方法详解

问题定义:现有3D高斯溅射方法主要针对透视相机模型,无法直接应用于全景图像的三维重建。直接应用会导致严重的几何失真和不一致性,影响重建质量。因此,需要一种专门为全景图像设计的3D高斯表示和渲染方法。

核心思路:Spherical-GOF的核心思路是在球形射线空间中直接进行高斯不透明度场(GOF)的射线采样。通过在单位球面上进行射线投射,避免了透视投影带来的失真,从而保证了射线与高斯分布交互的几何一致性。

技术框架:Spherical-GOF的整体框架包括以下几个主要步骤:1) 全景图像输入;2) 在单位球面上进行射线采样;3) 利用保守的球形边界规则进行快速射线-高斯剔除,减少计算量;4) 应用球形滤波方案,使高斯足迹适应全景像素采样;5) 基于GOF进行渲染,生成深度图、法线图等。

关键创新:Spherical-GOF的关键创新在于:1) 提出了在球形射线空间中直接进行GOF射线采样的方法,避免了透视投影带来的几何失真;2) 推导了一种保守的球形边界规则,用于加速射线-高斯剔除;3) 设计了一种球形滤波方案,使高斯足迹适应于失真变化的全景像素采样。这些创新使得Spherical-GOF能够有效地处理全景图像的三维重建问题。

关键设计:Spherical-GOF的关键设计包括:1) 使用单位球面进行射线采样,保证了射线方向的均匀性;2) 球形边界规则的设计,需要保证剔除的保守性,避免误剔除有效的高斯分布;3) 球形滤波方案的设计,需要根据全景图像的失真程度,自适应地调整高斯足迹的大小和形状;4) 损失函数的设计,需要综合考虑光度一致性和几何一致性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

Spherical-GOF在OmniBlender和OmniPhotos数据集上进行了评估,实验结果表明,与现有方法相比,Spherical-GOF在光度质量和几何一致性方面均有显著提升。具体而言,Spherical-GOF将深度重投影误差降低了57%,并将循环内点率提高了21%。此外,Spherical-GOF对全局全景旋转具有很强的鲁棒性,能够生成更清晰的深度图和更连贯的法线贴图。

🎯 应用场景

Spherical-GOF在机器人导航、虚拟现实、增强现实、三维地图构建等领域具有广泛的应用前景。它可以用于提升机器人对周围环境的感知能力,构建更真实、更沉浸式的虚拟现实体验,以及生成更精确的三维地图。尤其是在需要大视场角感知的场景下,Spherical-GOF的优势将更加明显。

📄 摘要(原文)

Omnidirectional images are increasingly used in robotics and vision due to their wide field of view. However, extending 3D Gaussian Splatting (3DGS) to panoramic camera models remains challenging, as existing formulations are designed for perspective projections and naive adaptations often introduce distortion and geometric inconsistencies. We present Spherical-GOF, an omnidirectional Gaussian rendering framework built upon Gaussian Opacity Fields (GOF). Unlike projection-based rasterization, Spherical-GOF performs GOF ray sampling directly on the unit sphere in spherical ray space, enabling consistent ray-Gaussian interactions for panoramic rendering. To make the spherical ray casting efficient and robust, we derive a conservative spherical bounding rule for fast ray-Gaussian culling and introduce a spherical filtering scheme that adapts Gaussian footprints to distortion-varying panoramic pixel sampling. Extensive experiments on standard panoramic benchmarks (OmniBlender and OmniPhotos) demonstrate competitive photometric quality and substantially improved geometric consistency. Compared with the strongest baseline, Spherical-GOF reduces depth reprojection error by 57% and improves cycle inlier ratio by 21%. Qualitative results show cleaner depth and more coherent normal maps, with strong robustness to global panorama rotations. We further validate generalization on OmniRob, a real-world robotic omnidirectional dataset introduced in this work, featuring UAV and quadruped platforms. The source code and the OmniRob dataset will be released at https://github.com/1170632760/Spherical-GOF.