Comparative Evaluation of Traditional and Deep Learning Feature Matching Algorithms using Chandrayaan-2 Lunar Data

📄 arXiv: 2509.04775v1 📥 PDF

作者: R. Makharia, J. G. Singla, Amitabh, N. Dube, H. Sharma

分类: cs.CV

发布日期: 2025-09-05

备注: 27 pages, 11 figures, 3 tables


💡 一句话要点

利用嫦娥二号月球数据,对比传统与深度学习特征匹配算法,实现鲁棒的跨模态图像配准。

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction)

关键词: 月球图像配准 跨模态图像 特征匹配 深度学习 SuperGlue

📋 核心要点

  1. 月球探测中跨模态图像配准面临光照、分辨率和传感器差异等挑战,传统方法在极端光照下性能下降。
  2. 论文提出结合预处理流程(地理配准、归一化等)与深度学习特征匹配器SuperGlue的解决方案。
  3. 实验表明,SuperGlue在跨模态月球图像配准中表现最佳,均方根误差最低,运行速度最快。

📝 摘要(中文)

精确的图像配准对于月球探测至关重要,它能够支持表面测绘、资源定位和任务规划。由于分辨率、光照和传感器畸变等差异,对来自不同月球传感器的图像数据(如光学相机、高光谱成像仪和雷达)进行配准极具挑战性。本文评估了五种特征匹配算法:SIFT、ASIFT、AKAZE、RIFT2和SuperGlue(一种基于深度学习的匹配器),使用了来自赤道和极地区域的跨模态图像对。论文提出了一种预处理流程,包括地理配准、分辨率对齐、强度归一化以及自适应直方图均衡化、主成分分析和阴影校正等增强方法。实验结果表明,SuperGlue始终产生最低的均方根误差和最快的运行时间。SIFT和AKAZE等传统方法在赤道附近表现良好,但在极地光照条件下性能下降。该研究强调了预处理和基于学习的方法对于在不同条件下实现鲁棒的月球图像配准的重要性。

🔬 方法详解

问题定义:论文旨在解决月球探测中不同传感器获取的图像配准问题,现有方法如SIFT等在光照变化剧烈的极地区域表现不佳,且难以处理跨模态图像之间的差异。传统方法对图像质量要求高,鲁棒性不足,限制了其在复杂月球环境下的应用。

核心思路:论文的核心思路是结合图像预处理和深度学习特征匹配,利用预处理步骤消除图像差异,增强特征的独特性,然后利用深度学习方法SuperGlue学习图像特征之间的对应关系,从而实现更鲁棒的跨模态图像配准。SuperGlue能够学习到更抽象、更具有判别性的特征,从而克服传统方法在光照变化和模态差异下的局限性。

技术框架:整体流程包括:1) 数据预处理:包括地理配准、分辨率对齐、强度归一化、自适应直方图均衡化、主成分分析和阴影校正等步骤,旨在消除不同传感器图像之间的差异;2) 特征提取与匹配:使用SIFT、ASIFT、AKAZE、RIFT2和SuperGlue等算法提取图像特征并进行匹配;3) 评估:使用均方根误差(RMSE)和运行时间作为评估指标,比较不同算法的性能。

关键创新:论文的关键创新在于将深度学习特征匹配器SuperGlue应用于月球图像配准,并结合专门设计的预处理流程,显著提高了跨模态图像配准的鲁棒性和精度。与传统方法相比,SuperGlue能够学习到更抽象的特征表示,从而更好地处理光照变化和模态差异。

关键设计:预处理流程中,自适应直方图均衡化用于增强图像对比度,主成分分析用于降低数据维度,阴影校正用于减少阴影对特征匹配的影响。SuperGlue使用图神经网络学习特征之间的对应关系,其损失函数旨在最大化匹配的置信度,同时最小化错误匹配的数量。具体的网络结构和参数设置遵循SuperGlue论文中的建议。

📊 实验亮点

实验结果表明,SuperGlue在跨模态月球图像配准中表现最佳,始终产生最低的均方根误差和最快的运行时间。在极地区域,传统方法如SIFT和AKAZE的性能显著下降,而SuperGlue仍能保持较高的配准精度,验证了其在复杂光照条件下的鲁棒性。SuperGlue的运行速度也明显优于传统方法。

🎯 应用场景

该研究成果可应用于月球探测任务,例如高精度月球表面测绘、月球资源定位、着陆点选择和任务规划。通过实现不同传感器数据的精确配准,可以构建更完整、更准确的月球表面模型,为未来的月球科研和资源开发提供重要支持。该方法也可推广到其他行星探测任务中。

📄 摘要(原文)

Accurate image registration is critical for lunar exploration, enabling surface mapping, resource localization, and mission planning. Aligning data from diverse lunar sensors -- optical (e.g., Orbital High Resolution Camera, Narrow and Wide Angle Cameras), hyperspectral (Imaging Infrared Spectrometer), and radar (e.g., Dual-Frequency Synthetic Aperture Radar, Selene/Kaguya mission) -- is challenging due to differences in resolution, illumination, and sensor distortion. We evaluate five feature matching algorithms: SIFT, ASIFT, AKAZE, RIFT2, and SuperGlue (a deep learning-based matcher), using cross-modality image pairs from equatorial and polar regions. A preprocessing pipeline is proposed, including georeferencing, resolution alignment, intensity normalization, and enhancements like adaptive histogram equalization, principal component analysis, and shadow correction. SuperGlue consistently yields the lowest root mean square error and fastest runtimes. Classical methods such as SIFT and AKAZE perform well near the equator but degrade under polar lighting. The results highlight the importance of preprocessing and learning-based approaches for robust lunar image registration across diverse conditions.