LR-SGS: Robust LiDAR-Reflectance-Guided Salient Gaussian Splatting for Self-Driving Scene Reconstruction

📄 arXiv: 2603.12647v1 📥 PDF

作者: Ziyu Chen, Fan Zhu, Hui Zhu, Deyi Kong, Xinkai Kuang, Yujia Zhang, Chunmao Jiang

分类: cs.CV, cs.AI

发布日期: 2026-03-13

备注: 8 pages, 7 figures, conference


💡 一句话要点

提出LR-SGS,利用LiDAR反射率引导的显著高斯溅射重建自动驾驶场景。

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 3D高斯溅射 LiDAR反射率 自动驾驶场景重建 多模态融合 显著性变换

📋 核心要点

  1. 现有3D高斯溅射方法在复杂自动驾驶场景下重建效果不佳,原因是未能充分利用LiDAR点云的反射率信息以及RGB与LiDAR的互补性。
  2. LR-SGS方法通过引入结构感知的显著高斯表示,并利用LiDAR反射率信息作为光照不变的材质通道,增强了边界一致性。
  3. 实验结果表明,LR-SGS在Waymo开放数据集上实现了优越的重建性能,尤其在复杂光照场景下,PSNR指标显著提升。

📝 摘要(中文)

本文提出了一种鲁棒且高效的LiDAR反射率引导的显著高斯溅射方法(LR-SGS),用于自动驾驶场景重建。现有方法通常仅依赖相机或仅使用LiDAR进行高斯初始化或深度监督,未能充分利用点云中丰富的场景信息(如反射率)以及LiDAR和RGB之间的互补性,导致在高自运动和复杂光照等具有挑战性的自动驾驶场景中性能下降。LR-SGS引入了一种结构感知的显著高斯表示,该表示从LiDAR提取的几何和反射率特征点初始化,并通过显著变换和改进的密度控制进行细化,以捕获边缘和平面结构。此外,我们将LiDAR强度校准为反射率,并将其作为光照不变的材质通道附加到每个高斯,与RGB联合对齐以增强边界一致性。在Waymo开放数据集上的大量实验表明,LR-SGS以更少的高斯和更短的训练时间实现了卓越的重建性能。特别是在复杂光照场景中,我们的方法比OmniRe提高了1.18 dB PSNR。

🔬 方法详解

问题定义:现有基于3D高斯溅射的自动驾驶场景重建方法,主要依赖相机图像或仅将LiDAR用于初始化或深度监督,忽略了LiDAR点云中包含的丰富反射率信息,以及LiDAR和RGB之间的互补性。这导致在具有挑战性的场景(如高自运动、复杂光照)下,重建质量显著下降。因此,需要一种能够有效融合LiDAR反射率信息,并充分利用多模态数据互补性的方法,以提升复杂场景下的重建效果。

核心思路:LR-SGS的核心思路是利用LiDAR的几何和反射率信息来指导高斯溅射的初始化和优化。通过提取LiDAR点云的显著特征点,并将其用于初始化高斯分布,可以更准确地表示场景的几何结构。同时,将LiDAR强度校准为反射率,并将其作为高斯分布的材质通道,与RGB图像联合优化,从而增强边界一致性,提高重建质量。这种设计充分利用了LiDAR提供的几何和物理信息,克服了传统方法在复杂场景下的局限性。

技术框架:LR-SGS的整体框架包含以下几个主要阶段:1) LiDAR特征提取与高斯初始化:从LiDAR点云中提取几何和反射率特征点,并基于这些特征点初始化高斯分布。2) 显著变换与密度控制:通过显著变换细化高斯分布,并采用改进的密度控制策略,以更好地捕获场景的边缘和平面结构。3) 反射率校准与材质通道融合:将LiDAR强度校准为反射率,并将其作为光照不变的材质通道附加到每个高斯分布。4) RGB-反射率联合优化:将RGB图像和反射率信息联合优化,以增强边界一致性,提高重建质量。

关键创新:LR-SGS的关键创新在于:1) 结构感知的显著高斯表示:通过LiDAR特征点初始化和显著变换,能够更准确地表示场景的几何结构。2) LiDAR反射率引导的材质通道:将LiDAR反射率作为光照不变的材质通道,与RGB图像联合优化,增强了边界一致性。3) 改进的密度控制策略:能够更好地控制高斯分布的密度,从而更好地捕获场景的边缘和平面结构。

关键设计:在LiDAR特征提取阶段,采用了基于曲率和反射率的特征点提取算法。在反射率校准阶段,使用了基于经验模型的校准方法。在RGB-反射率联合优化阶段,使用了基于光度一致性的损失函数和基于反射率一致性的损失函数。此外,还设计了一种自适应学习率调整策略,以加速训练过程。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

LR-SGS在Waymo开放数据集上进行了广泛的实验,结果表明,该方法在重建性能上优于现有方法。特别是在复杂光照场景中,LR-SGS比OmniRe方法提高了1.18 dB PSNR。此外,LR-SGS还能够以更少的高斯分布和更短的训练时间实现卓越的重建效果。

🎯 应用场景

LR-SGS在自动驾驶领域具有广泛的应用前景,可用于高精度地图构建、自动驾驶车辆的感知与定位、以及虚拟现实场景的生成。该方法能够提升自动驾驶系统在复杂光照和高动态环境下的鲁棒性,提高感知精度,从而增强自动驾驶的安全性。

📄 摘要(原文)

Recent 3D Gaussian Splatting (3DGS) methods have demonstrated the feasibility of self-driving scene reconstruction and novel view synthesis. However, most existing methods either rely solely on cameras or use LiDAR only for Gaussian initialization or depth supervision, while the rich scene information contained in point clouds, such as reflectance, and the complementarity between LiDAR and RGB have not been fully exploited, leading to degradation in challenging self-driving scenes, such as those with high ego-motion and complex lighting. To address these issues, we propose a robust and efficient LiDAR-reflectance-guided Salient Gaussian Splatting method (LR-SGS) for self-driving scenes, which introduces a structure-aware Salient Gaussian representation, initialized from geometric and reflectance feature points extracted from LiDAR and refined through a salient transform and improved density control to capture edge and planar structures. Furthermore, we calibrate LiDAR intensity into reflectance and attach it to each Gaussian as a lighting-invariant material channel, jointly aligned with RGB to enforce boundary consistency. Extensive experiments on the Waymo Open Dataset demonstrate that LR-SGS achieves superior reconstruction performance with fewer Gaussians and shorter training time. In particular, on Complex Lighting scenes, our method surpasses OmniRe by 1.18 dB PSNR.