Navigation Around Unknown Space Objects Using Visible-Thermal Image Fusion
作者: Eric J. Elias, Michael Esswein, Jonathan P. How, David W. Miller
分类: cs.RO, cs.CV
发布日期: 2025-12-13
备注: 18 pages, 11 figures. To be published in proceedings of AIAA SCITECH 2026 Forum
💡 一句话要点
提出可见光-热红外图像融合方法,提升未知空间物体导航精度
🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)
关键词: 空间物体导航 可见光图像 热红外图像 图像融合 单目SLAM
📋 核心要点
- 传统相机在阴影下失效,激光雷达体积大功耗高,限制了空间物体导航。
- 提出可见光与热红外图像融合方法,结合二者优势,提升导航系统在复杂光照下的鲁棒性。
- 实验表明,融合图像显著提升了单目SLAM算法的导航精度,优于单独使用可见光或热红外图像。
📝 摘要(中文)
随着在轨操作的日益普及,对未知空间物体(RSO)进行精确导航的需求也日益增长,这些物体包括其他航天器、轨道碎片和小行星。同时定位与地图构建(SLAM)算法常被用于绘制RSO表面地图,并利用激光雷达或传统相机确定探测器的相对姿态。然而,传统相机在日食或阴影期间表现不佳,而激光雷达虽然对光照条件不敏感,但往往更重、更大、更耗电。热红外相机可以在困难的光照条件下跟踪目标RSO,且没有这些限制。虽然有用,但热红外图像缺乏可见光相机所具有的分辨率和丰富的特征。本文对近地轨道目标卫星的可见光和热红外图像进行了逼真的模拟。采用像素级融合方法创建可见光/热红外复合图像,充分利用了每种相机的优点。在不同的光照和轨迹下,比较了单目SLAM算法在可见光、热红外和融合图像上的导航误差。结果表明,融合图像的导航性能明显优于仅使用可见光和仅使用热红外的方法。
🔬 方法详解
问题定义:论文旨在解决在复杂光照条件下,传统可见光相机和激光雷达在未知空间物体(RSO)导航中存在的局限性问题。可见光相机在阴影或日食期间性能下降,而激光雷达则存在体积、重量和功耗方面的限制。现有方法难以在各种光照条件下实现精确可靠的导航。
核心思路:论文的核心思路是将可见光图像和热红外图像进行融合,利用可见光图像的高分辨率和特征丰富性,以及热红外图像对光照不敏感的特性。通过融合两种模态的信息,可以克服单一传感器的局限性,提高导航系统在各种光照条件下的鲁棒性和精度。
技术框架:该方法主要包含以下几个阶段:1) 使用仿真软件生成目标卫星的可见光和热红外图像;2) 对可见光和热红外图像进行像素级融合,生成复合图像;3) 使用单目SLAM算法对可见光图像、热红外图像和融合图像分别进行导航;4) 比较不同图像的导航误差,评估融合方法的性能。
关键创新:该论文的关键创新在于提出了一种基于像素级融合的可见光-热红外图像融合方法,用于提升空间物体导航的精度和鲁棒性。与传统方法相比,该方法能够充分利用两种模态的信息,克服单一传感器的局限性,从而在复杂光照条件下实现更精确的导航。
关键设计:论文中使用了光线追踪软件来生成逼真的可见光和热红外图像。像素级融合方法具体实现细节未知,但其目标是保留两种图像的最佳特征。单目SLAM算法的具体选择未知,但其性能是评估融合方法有效性的关键指标。论文比较了不同光照条件和轨迹下的导航误差,以验证融合方法的鲁棒性。
📊 实验亮点
实验结果表明,在各种光照和轨迹条件下,融合图像的导航性能明显优于仅使用可见光和仅使用热红外的方法。具体性能提升数据未知,但论文强调了融合方法在提高导航精度方面的显著优势,尤其是在光照条件不佳的情况下。
🎯 应用场景
该研究成果可应用于空间机器人、卫星自主导航、轨道碎片清除等领域。通过提升在复杂光照条件下对未知空间物体的导航精度,可以提高空间任务的安全性、可靠性和效率,为未来的空间探索和资源利用提供技术支持。
📄 摘要(原文)
As the popularity of on-orbit operations grows, so does the need for precise navigation around unknown resident space objects (RSOs) such as other spacecraft, orbital debris, and asteroids. The use of Simultaneous Localization and Mapping (SLAM) algorithms is often studied as a method to map out the surface of an RSO and find the inspector's relative pose using a lidar or conventional camera. However, conventional cameras struggle during eclipse or shadowed periods, and lidar, though robust to lighting conditions, tends to be heavier, bulkier, and more power-intensive. Thermal-infrared cameras can track the target RSO throughout difficult illumination conditions without these limitations. While useful, thermal-infrared imagery lacks the resolution and feature-richness of visible cameras. In this work, images of a target satellite in low Earth orbit are photo-realistically simulated in both visible and thermal-infrared bands. Pixel-level fusion methods are used to create visible/thermal-infrared composites that leverage the best aspects of each camera. Navigation errors from a monocular SLAM algorithm are compared between visible, thermal-infrared, and fused imagery in various lighting and trajectories. Fused imagery yields substantially improved navigation performance over visible-only and thermal-only methods.