MarsLGPR: Mars Rover Localization with Ground Penetrating Radar
作者: Anja Sheppard, Katherine A. Skinner
分类: cs.RO, cs.LG
发布日期: 2025-03-06 (更新: 2025-11-03)
备注: IEEE Transactions on Field Robotics (2025)
🔗 代码/项目: PROJECT_PAGE
💡 一句话要点
提出基于探地雷达的火星车定位方法MarsLGPR,提升高滑移环境下的定位精度。
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱六:视频提取与匹配 (Video Extraction)
关键词: 火星车定位 探地雷达 深度学习 多传感器融合 位姿估计
📋 核心要点
- 火星车在无GPS环境下依赖视觉里程计和轮式编码器定位,但视觉里程计算力需求大,易受光照影响,轮式编码器易受地形滑移影响。
- 利用火星车已搭载的探地雷达(GPR),提出一种基于GPR的深度学习模型,预测相对位姿平移,并与惯性和轮式编码器数据融合。
- 在火星模拟环境中实验表明,该方法优于轮式编码器,并提升了高滑移环境下的多模态滤波定位精度,同时发布了首个GPR火星模拟环境定位数据集。
📝 摘要(中文)
本文提出了一种利用探地雷达(GPR)进行火星车定位的方法。在缺乏GPS的环境中,精确的位姿估计对于行星表面移动机器人至关重要。虽然视觉里程计提供准确的定位,但计算成本高昂,并且在昏暗或高对比度光照下可能失效。轮式编码器也可以提供里程计估计,但容易在火星的沙地地形上发生滑移。GPR传统上是一种科学勘测传感器,但在地球上已被用于地形分类和通过地下特征匹配进行定位。Perseverance漫游车和即将到来的ExoMars漫游车都配备了GPR传感器,以帮助寻找水和矿产资源。我们建议利用GPR来辅助火星车定位。具体来说,我们开发了一种基于GPR的新型深度学习模型,该模型可以预测一维相对位姿平移。我们将基于GPR的位姿预测方法与惯性和轮式编码器数据融合在一个滤波框架中,以输出漫游车定位。我们在火星模拟环境中进行了实验,结果表明,我们基于GPR的位移预测优于轮式编码器,并提高了高滑移环境下的多模态滤波估计。最后,我们提出了第一个旨在基于GPR在火星模拟环境中进行定位的数据集,该数据集将在https://umfieldrobotics.github.io/marslgpr上公开。
🔬 方法详解
问题定义:论文旨在解决火星车在无GPS环境下,由于视觉里程计计算量大且易受光照影响,以及轮式编码器易受地形滑移影响,导致定位精度下降的问题。现有方法在高滑移环境下表现不佳,需要更可靠的定位方案。
核心思路:论文的核心思路是利用火星车上已有的探地雷达(GPR)数据,通过深度学习模型学习GPR信号与位姿变化之间的关系,从而实现基于GPR的位姿预测。这种方法不依赖于视觉信息,且对地形滑移具有一定的鲁棒性。
技术框架:整体框架包括以下几个主要模块:1) GPR数据采集;2) 基于深度学习的位姿预测模型训练;3) 惯性测量单元(IMU)和轮式编码器数据采集;4) 多传感器数据融合,使用滤波框架(如卡尔曼滤波)将GPR位姿预测、IMU数据和轮式编码器数据进行融合,输出最终的火星车定位结果。
关键创新:论文的关键创新在于提出了一种基于GPR的深度学习模型,用于预测火星车的相对位姿平移。与传统的基于视觉或轮式编码器的定位方法不同,该方法利用了GPR信号的地下信息,对地形滑移具有更强的鲁棒性。此外,论文还构建并公开了首个用于GPR火星模拟环境定位的数据集。
关键设计:论文使用深度学习模型预测1D相对位姿平移。具体的网络结构未知,但可以推测可能采用了卷积神经网络(CNN)或循环神经网络(RNN)来处理GPR信号序列。损失函数的设计目标是最小化预测位姿与真实位姿之间的误差。滤波框架的具体参数设置(如噪声协方差矩阵)需要根据实际的传感器特性进行调整。
🖼️ 关键图片
📊 实验亮点
实验结果表明,基于GPR的位移预测在高滑移环境下优于轮式编码器,并显著提高了多模态滤波估计的精度。具体性能数据未知,但摘要强调了在高滑移环境下的改进,表明GPR在解决轮式编码器滑移问题上的有效性。公开的数据集将促进该领域的研究。
🎯 应用场景
该研究成果可应用于火星探测任务中,提高火星车在复杂地形和光照条件下的自主导航能力。此外,该方法也可推广到其他行星或地球上的类似场景,如地下管道检测、矿产资源勘探等,具有重要的实际应用价值和科学意义。
📄 摘要(原文)
In this work, we propose the use of Ground Penetrating Radar (GPR) for rover localization on Mars. Precise pose estimation is an important task for mobile robots exploring planetary surfaces, as they operate in GPS-denied environments. Although visual odometry provides accurate localization, it is computationally expensive and can fail in dim or high-contrast lighting. Wheel encoders can also provide odometry estimation, but are prone to slipping on the sandy terrain encountered on Mars. Although traditionally a scientific surveying sensor, GPR has been used on Earth for terrain classification and localization through subsurface feature matching. The Perseverance rover and the upcoming ExoMars rover have GPR sensors already equipped to aid in the search of water and mineral resources. We propose to leverage GPR to aid in Mars rover localization. Specifically, we develop a novel GPR-based deep learning model that predicts 1D relative pose translation. We fuse our GPR pose prediction method with inertial and wheel encoder data in a filtering framework to output rover localization. We perform experiments in a Mars analog environment and demonstrate that our GPR-based displacement predictions both outperform wheel encoders and improve multi-modal filtering estimates in high-slip environments. Lastly, we present the first dataset aimed at GPR-based localization in Mars analog environments, which will be made publicly available at https://umfieldrobotics.github.io/marslgpr.