Full Stack Navigation, Mapping, and Planning for the Lunar Autonomy Challenge

📄 arXiv: 2603.17232v1 📥 PDF

作者: Adam Dai, Asta Wu, Keidai Iiyama, Guillem Casadesus Vila, Kaila Coimbra, Thomas Deng, Grace Gao

分类: cs.RO

发布日期: 2026-03-18

备注: Published in the Proceedings of the ION GNSS+ 2025 conference


💡 一句话要点

为月球自主挑战赛设计全栈导航、建图与规划系统,荣获第一名

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 月球探测 自主导航 视觉SLAM 路径规划 机器人控制

📋 核心要点

  1. 月球表面导航面临GNSS缺失和视觉环境挑战,现有方法难以实现高精度定位和可靠的地图构建。
  2. 论文提出一种模块化全栈自主系统,融合语义分割、视觉里程计、位姿图SLAM和分层规划控制,实现鲁棒导航。
  3. 实验结果表明,该系统在月球模拟器中实现了厘米级定位精度和高保真地图构建,并在比赛中获得第一名。

📝 摘要(中文)

本文介绍了一种模块化的全栈自主系统,专为月球自主挑战赛开发,用于月球表面导航和建图。该系统在缺乏GNSS且视觉环境极具挑战性的环境中运行,集成了语义分割、立体视觉里程计、带闭环的位姿图SLAM以及分层规划与控制。我们利用轻量级的基于学习的感知模型进行实时分割和特征跟踪,并使用因子图后端来保持全局一致的定位。高层路径点规划旨在促进地图覆盖,同时鼓励频繁的闭环,而局部运动规划使用弧采样和几何障碍物检查来实现高效、反应式的控制。我们在比赛的高保真月球模拟器中评估了我们的方法,证明了厘米级的定位精度、高保真地图生成以及在随机种子和岩石分布下的强大可重复性。我们的解决方案在最终比赛评估中获得了第一名。

🔬 方法详解

问题定义:论文旨在解决月球表面自主导航与建图问题,该场景下GNSS信号缺失,视觉环境复杂多变,传统依赖GNSS的导航方法失效。同时,视觉里程计和SLAM方法容易累积误差,导致定位精度下降,地图质量不高,影响后续的路径规划和任务执行。

核心思路:论文的核心思路是构建一个模块化的全栈自主系统,通过融合多种感知和规划技术,实现鲁棒的定位、精确的建图和高效的路径规划。该系统利用轻量级的学习模型进行实时语义分割和特征跟踪,提高感知能力;采用因子图SLAM进行全局优化,减小累积误差;设计分层规划策略,兼顾全局探索和局部避障。

技术框架:该系统包含以下主要模块:1) 感知模块:利用轻量级学习模型进行语义分割和特征跟踪,提取环境信息。2) 定位模块:采用立体视觉里程计进行初始位姿估计,并使用因子图SLAM进行全局优化,实现高精度定位。3) 建图模块:基于定位结果构建高精度的环境地图。4) 规划模块:采用分层规划策略,包括高层路径点规划和局部运动规划,实现全局探索和局部避障。5) 控制模块:根据规划结果,控制机器人运动。

关键创新:论文的关键创新在于全栈系统的集成和优化,以及针对月球环境的特殊设计。具体包括:1) 轻量级学习模型的应用,提高了感知效率和鲁棒性。2) 因子图SLAM的全局优化,减小了累积误差,提高了定位精度。3) 分层规划策略的设计,兼顾了全局探索和局部避障,提高了任务完成效率。4) 针对月球环境的参数调整和优化,提高了系统的适应性。

关键设计:在感知模块中,采用了轻量级的神经网络结构,以保证实时性。在因子图SLAM中,使用了视觉里程计和闭环检测作为因子,进行全局优化。在高层路径点规划中,设计了鼓励闭环的策略,以提高地图精度。在局部运动规划中,使用了弧采样和几何障碍物检查,以实现高效、反应式的控制。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该系统在月球模拟器中实现了厘米级的定位精度,证明了其高精度定位能力。通过与其他SLAM方法对比,验证了因子图SLAM的有效性。在比赛中,该系统在随机种子和岩石分布下表现出强大的可重复性,最终获得了第一名,证明了其鲁棒性和可靠性。

🎯 应用场景

该研究成果可应用于月球和其他行星的探测任务,例如自主导航、资源勘探、科学考察等。此外,该系统也可应用于地面复杂环境下的机器人导航,例如矿山、建筑工地等。该研究为未来深空探测和机器人自主导航提供了重要的技术支撑。

📄 摘要(原文)

We present a modular, full-stack autonomy system for lunar surface navigation and mapping developed for the Lunar Autonomy Challenge. Operating in a GNSS-denied, visually challenging environment, our pipeline integrates semantic segmentation, stereo visual odometry, pose graph SLAM with loop closures, and layered planning and control. We leverage lightweight learning-based perception models for real-time segmentation and feature tracking and use a factor-graph backend to maintain globally consistent localization. High-level waypoint planning is designed to promote mapping coverage while encouraging frequent loop closures, and local motion planning uses arc sampling with geometric obstacle checks for efficient, reactive control. We evaluate our approach in the competition's high-fidelity lunar simulator, demonstrating centimeter-level localization accuracy, high-fidelity map generation, and strong repeatability across random seeds and rock distributions. Our solution achieved first place in the final competition evaluation.