Vision-Guided Optic Flow Navigation for Small Lunar Missions

📄 arXiv: 2511.17720v1 📥 PDF

作者: Sean Cowan, Pietro Fanti, Leon B. S. Williams, Chit Hong Yam, Kaneyasu Asakuma, Yuichiro Nada, Dario Izzo

分类: cs.RO, astro-ph.IM

发布日期: 2025-11-21


💡 一句话要点

针对小型月球任务,提出一种基于视觉引导光流导航的轻量级自主导航方案

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 光流导航 自主导航 月球着陆 运动估计 视觉导航

📋 核心要点

  1. 小型月球任务面临资源约束下的自主导航难题,现有方法难以兼顾精度与效率。
  2. 论文提出一种基于光流和深度信息的运动场反演框架,利用CPU即可实现轻量级自运动估计。
  3. 实验表明,该方法在复杂月球地形下速度估计误差小于10%,典型地形下误差约为1%,满足实时性要求。

📝 摘要(中文)

本文提出了一种运动场反演框架,该框架利用光流和基于测距仪的深度估计,为小型月球任务在质量、功率和计算资源受限的情况下,提供一种轻量级的、基于CPU的自主导航解决方案,用于月球下降过程中的自运动估计。通过将经典光流公式与针对月球/行星接近、下降和着陆的几何形状定制的深度建模策略相结合,扩展了经典光流公式,具体来说,是使用激光测距仪参数化的平面和球面地形近似。运动场反演通过最小二乘框架执行,使用通过金字塔Lucas-Kanade算法提取的稀疏光流特征。通过在月球南极具有挑战性的地形上使用合成生成的月球图像验证了该方法,CPU预算与小型月球着陆器兼容。结果表明,从接近到着陆,速度估计准确,复杂地形的误差小于10%,更典型地形的误差约为1%,并且性能适合实时应用。该框架展示了为小型月球任务实现稳健、轻量级车载导航的前景。

🔬 方法详解

问题定义:小型月球着陆器在资源受限的情况下,需要精确可靠的自主导航能力。传统方法可能计算复杂度高,不适用于资源有限的平台,或者精度不足以应对复杂地形。因此,需要一种轻量级、高精度的自运动估计方法,以支持月球着陆器的安全着陆。

核心思路:利用视觉信息(光流)和深度信息(激光测距仪)进行融合,构建运动场模型,并通过反演该模型来估计着陆器的自运动。核心在于将光流信息与针对月球着陆场景的几何约束相结合,从而提高估计的准确性和鲁棒性。

技术框架:该框架主要包含以下几个阶段:1)图像采集:通过相机获取月球表面的图像。2)深度估计:使用激光测距仪获取深度信息,并建立月球表面的几何模型(平面或球面近似)。3)光流计算:使用金字塔Lucas-Kanade算法提取图像中的稀疏光流特征。4)运动场反演:将光流特征和深度信息融合,通过最小二乘法求解运动场模型,估计着陆器的自运动参数(速度和角速度)。

关键创新:该方法的关键创新在于将经典光流方法与针对月球着陆场景的深度建模策略相结合。通过利用激光测距仪提供的深度信息,可以更好地约束运动场模型,从而提高自运动估计的准确性和鲁棒性。此外,该方法采用轻量级的CPU实现,适用于资源受限的小型月球着陆器。

关键设计:1)地形建模:使用平面或球面模型来近似月球表面,模型的参数由激光测距仪提供。2)光流特征提取:使用金字塔Lucas-Kanade算法提取稀疏光流特征,以降低计算复杂度。3)运动场反演:使用最小二乘法求解运动场模型,目标函数包括光流约束和深度约束。4)参数设置:根据具体的月球着陆场景,调整地形模型的参数和光流特征提取的参数。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在合成的月球图像上能够实现准确的速度估计。在复杂地形下,速度估计误差小于10%;在更典型地形下,误差约为1%。该方法在CPU上的运行速度满足实时性要求,证明了其在资源受限平台上的可行性。

🎯 应用场景

该研究成果可应用于小型月球着陆器、行星探测器等航天任务中,为其提供自主导航能力,降低对地面控制的依赖,提高任务的灵活性和安全性。此外,该方法也可应用于无人机、机器人等需要在复杂环境中进行自主导航的场景。

📄 摘要(原文)

Private lunar missions are faced with the challenge of robust autonomous navigation while operating under stringent constraints on mass, power, and computational resources. This work proposes a motion-field inversion framework that uses optical flow and rangefinder-based depth estimation as a lightweight CPU-based solution for egomotion estimation during lunar descent. We extend classical optical flow formulations by integrating them with depth modeling strategies tailored to the geometry for lunar/planetary approach, descent, and landing, specifically, planar and spherical terrain approximations parameterized by a laser rangefinder. Motion field inversion is performed through a least-squares framework, using sparse optical flow features extracted via the pyramidal Lucas-Kanade algorithm. We verify our approach using synthetically generated lunar images over the challenging terrain of the lunar south pole, using CPU budgets compatible with small lunar landers. The results demonstrate accurate velocity estimation from approach to landing, with sub-10% error for complex terrain and on the order of 1% for more typical terrain, as well as performances suitable for real-time applications. This framework shows promise for enabling robust, lightweight on-board navigation for small lunar missions.