WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments
作者: Jianhao Zheng, Zihan Zhu, Valentin Bieri, Marc Pollefeys, Songyou Peng, Iro Armeni
分类: cs.CV, cs.RO
发布日期: 2025-04-04
💡 一句话要点
WildGS-SLAM:单目高斯溅射SLAM,解决动态环境下的鲁棒建图问题
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 单目SLAM 动态环境 高斯溅射 不确定性感知 三维重建
📋 核心要点
- 传统SLAM系统在动态环境下表现不佳,因为它们通常假设场景是静态的,无法有效处理移动物体。
- WildGS-SLAM利用不确定性图来识别和移除动态物体,从而提高跟踪和建图的鲁棒性。
- 实验结果表明,WildGS-SLAM在动态环境中实现了优于现有技术的性能,并生成了高质量的视图合成结果。
📝 摘要(中文)
本文提出WildGS-SLAM,一个鲁棒且高效的单目RGB SLAM系统,旨在通过利用不确定性感知的几何映射来处理动态环境。与假设静态场景的传统SLAM系统不同,我们的方法集成了深度和不确定性信息,以增强在存在移动物体时的跟踪、建图和渲染性能。我们引入了一个由浅层多层感知器和DINOv2特征预测的不确定性图,以指导跟踪和建图过程中的动态物体移除。这种不确定性图增强了密集捆绑调整和高斯图优化,从而提高了重建精度。我们的系统在多个数据集上进行了评估,并展示了无伪影的视图合成。结果表明,与最先进的方法相比,WildGS-SLAM在动态环境中表现出卓越的性能。
🔬 方法详解
问题定义:现有SLAM系统在动态环境下,由于移动物体的存在,导致跟踪精度下降、地图构建错误以及渲染伪影。传统方法难以有效区分静态背景和动态物体,从而影响了SLAM系统的整体性能。因此,如何在动态场景中实现鲁棒且精确的SLAM是本文要解决的核心问题。
核心思路:WildGS-SLAM的核心思路是引入不确定性感知机制,利用不确定性图来指导动态物体的移除。通过预测每个像素的不确定性,系统可以区分静态场景和动态物体,并在跟踪和建图过程中抑制动态物体的影响。这种方法能够提高SLAM系统在动态环境下的鲁棒性和精度。
技术框架:WildGS-SLAM系统主要包含以下几个模块:1) 特征提取:使用DINOv2提取图像特征。2) 不确定性预测:使用浅层MLP基于DINOv2特征预测不确定性图。3) 跟踪:利用不确定性图进行动态物体移除,并进行相机位姿估计。4) 建图:结合不确定性图进行高斯图优化,构建精确的场景地图。5) 渲染:基于高斯图进行视图合成。
关键创新:WildGS-SLAM的关键创新在于引入了不确定性图来指导动态物体的移除。与传统方法相比,该方法能够更准确地识别和处理动态物体,从而提高SLAM系统在动态环境下的鲁棒性和精度。此外,将不确定性信息融入到密集捆绑调整和高斯图优化中,进一步提升了重建质量。
关键设计:不确定性图的预测采用了一个浅层多层感知器(MLP),输入是DINOv2提取的图像特征。损失函数的设计旨在最小化静态区域的不确定性,同时最大化动态区域的不确定性。高斯图优化中,不确定性被用作权重,以降低动态物体对地图构建的影响。具体的参数设置和网络结构细节在论文中有详细描述。
🖼️ 关键图片
📊 实验亮点
WildGS-SLAM在多个动态场景数据集上进行了评估,实验结果表明,该系统在跟踪精度、地图构建质量和视图合成效果方面均优于现有技术。与state-of-the-art方法相比,WildGS-SLAM能够生成更清晰、更逼真的视图合成结果,并且能够有效抑制动态物体引起的伪影。具体的性能指标和对比结果在论文中有详细展示。
🎯 应用场景
WildGS-SLAM在机器人导航、增强现实、自动驾驶等领域具有广泛的应用前景。该系统能够在动态环境中实现鲁棒的定位和建图,为机器人提供可靠的环境感知能力。此外,高质量的视图合成能力使其在AR/VR应用中具有重要价值,可以提供更逼真的沉浸式体验。该技术还有潜力应用于三维重建、虚拟现实、机器人视觉等领域。
📄 摘要(原文)
We present WildGS-SLAM, a robust and efficient monocular RGB SLAM system designed to handle dynamic environments by leveraging uncertainty-aware geometric mapping. Unlike traditional SLAM systems, which assume static scenes, our approach integrates depth and uncertainty information to enhance tracking, mapping, and rendering performance in the presence of moving objects. We introduce an uncertainty map, predicted by a shallow multi-layer perceptron and DINOv2 features, to guide dynamic object removal during both tracking and mapping. This uncertainty map enhances dense bundle adjustment and Gaussian map optimization, improving reconstruction accuracy. Our system is evaluated on multiple datasets and demonstrates artifact-free view synthesis. Results showcase WildGS-SLAM's superior performance in dynamic environments compared to state-of-the-art methods.