LSGS-Loc: Towards Robust 3DGS-Based Visual Localization for Large-Scale UAV Scenarios
作者: Xiang Zhang, Tengfei Wang, Fang Xu, Xin Wang, Zongqian Zhan
分类: cs.CV, cs.RO
发布日期: 2026-04-07
备注: This paper is under reviewed by RA-L. The copyright might be transferred upon acceptance
🔗 代码/项目: GITHUB
💡 一句话要点
LSGS-Loc:面向大规模无人机场景的鲁棒3DGS视觉定位
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 视觉定位 3D高斯溅射 无人机 姿态估计 鲁棒性
📋 核心要点
- 现有基于3DGS的视觉定位方法在大规模场景中姿态初始化鲁棒性不足,且易受渲染伪影影响。
- LSGS-Loc提出了一种尺度感知的姿态初始化策略和基于拉普拉斯的可靠性掩码机制,以提升定位精度和鲁棒性。
- 实验表明,LSGS-Loc在无人机基准测试中显著优于现有方法,实现了最先进的定位精度和鲁棒性。
📝 摘要(中文)
大规模无人机场景中的视觉定位是自主系统的关键能力,但由于几何复杂性和环境变化,它仍然具有挑战性。虽然3D高斯溅射(3DGS)已成为一种有前景的场景表示方法,但现有的基于3DGS的视觉定位方法在大型场景中难以实现鲁棒的姿态初始化,并且对渲染伪影敏感。为了解决这些限制,我们提出了一种新颖的视觉定位流程LSGS-Loc,专为大规模3DGS场景定制。具体来说,我们引入了一种尺度感知的姿态初始化策略,该策略将场景无关的相对姿态估计与显式的3DGS尺度约束相结合,从而实现无需特定场景训练的几何定位。此外,在姿态优化中,为了减轻模糊和漂浮物等重建伪影的影响,我们开发了一种基于拉普拉斯的可靠性掩码机制,引导光度优化关注高质量区域。在大型无人机基准测试中进行的大量实验表明,我们的方法对于无序图像查询实现了最先进的精度和鲁棒性,显著优于现有的基于3DGS的方法。
🔬 方法详解
问题定义:论文旨在解决大规模无人机场景下,基于3D高斯溅射(3DGS)的视觉定位问题。现有方法在处理此类场景时,面临两个主要痛点:一是姿态初始化不够鲁棒,容易受到初始位姿偏差的影响;二是3DGS重建过程中产生的伪影(如模糊、漂浮物)会降低定位精度。
核心思路:论文的核心思路是,通过结合场景无关的相对姿态估计和显式的3DGS尺度约束,实现更准确的姿态初始化。同时,利用图像的拉普拉斯算子来评估像素的可靠性,从而在姿态优化过程中,更加关注高质量的图像区域,减少伪影的影响。
技术框架:LSGS-Loc的整体流程主要包含两个阶段:姿态初始化和姿态优化。在姿态初始化阶段,首先使用场景无关的相对姿态估计方法得到一个初始位姿,然后利用3DGS的尺度信息对该位姿进行约束和优化。在姿态优化阶段,使用光度误差作为优化目标,并引入基于拉普拉斯算子的可靠性掩码,以提高优化过程的鲁棒性。
关键创新:论文的关键创新在于:1) 提出了一种尺度感知的姿态初始化策略,该策略能够有效地利用3DGS的尺度信息来提高初始位姿的准确性。2) 引入了一种基于拉普拉斯算子的可靠性掩码机制,该机制能够有效地减少重建伪影对姿态优化过程的影响。
关键设计:在尺度感知的姿态初始化策略中,论文使用了最小化重投影误差作为优化目标,并利用Levenberg-Marquardt算法进行求解。在基于拉普拉斯算子的可靠性掩码机制中,论文首先计算图像的拉普拉斯响应,然后使用一个阈值来将像素分为可靠和不可靠两类。可靠像素在光度误差计算中具有更高的权重。
🖼️ 关键图片
📊 实验亮点
LSGS-Loc在大型无人机基准测试中取得了显著的性能提升,相较于现有的基于3DGS的方法,定位精度和鲁棒性均有大幅提高。具体而言,该方法在无序图像查询场景下,实现了最先进的定位精度,并且对光照变化、遮挡等因素具有更强的鲁棒性。实验结果表明,所提出的尺度感知姿态初始化策略和基于拉普拉斯的可靠性掩码机制能够有效地提高定位性能。
🎯 应用场景
该研究成果可广泛应用于无人机自主导航、三维地图构建、增强现实等领域。通过提高无人机在复杂环境下的定位精度和鲁棒性,可以实现更安全、更高效的无人机作业,例如:城市巡检、物流配送、灾害救援等。未来,该技术有望进一步推广到其他机器人平台,例如:自动驾驶汽车、服务机器人等。
📄 摘要(原文)
Visual localization in large-scale UAV scenarios is a critical capability for autonomous systems, yet it remains challenging due to geometric complexity and environmental variations. While 3D Gaussian Splatting (3DGS) has emerged as a promising scene representation, existing 3DGS-based visual localization methods struggle with robust pose initialization and sensitivity to rendering artifacts in large-scale settings. To address these limitations, we propose LSGS-Loc, a novel visual localization pipeline tailored for large-scale 3DGS scenes. Specifically, we introduce a scale-aware pose initialization strategy that combines scene-agnostic relative pose estimation with explicit 3DGS scale constraints, enabling geometrically grounded localization without scene-specific training. Furthermore, in the pose refinement, to mitigate the impact of reconstruction artifacts such as blur and floaters, we develop a Laplacian-based reliability masking mechanism that guides photometric refinement toward high-quality regions. Extensive experiments on large-scale UAV benchmarks demonstrate that our method achieves state-of-the-art accuracy and robustness for unordered image queries, significantly outperforming existing 3DGS-based approaches. Code is available at: https://github.com/xzhang-z/LSGS-Loc