Training Datasets Generation for Machine Learning: Application to Vision Based Navigation
作者: Jérémy Lebreton, Ingo Ahrns, Roland Brochard, Christoph Haskamp, Hans Krüger, Matthieu Le Goff, Nicolas Menga, Nicolas Ollagnier, Ralf Regele, Francesco Capolupo, Massimo Casasco
分类: cs.CV, astro-ph.EP, cs.GR, cs.LG
发布日期: 2024-09-17 (更新: 2024-12-19)
备注: 6 pages, 4 figures, preprint of the proceedings of ESA SPAICE conference 2024
💡 一句话要点
针对视觉导航,提出一种基于多种数据源融合的机器学习训练数据集生成方法。
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 视觉导航 机器学习 训练数据集生成 航天应用 图像模拟
📋 核心要点
- 航天应用中,机器学习算法验证面临缺乏足够训练数据集的挑战,限制了其广泛应用。
- 论文提出一种数据集生成方法,融合真实数据、模拟数据和生成数据,并验证其有效性。
- 实验表明,使用SurRender模拟器和实验室数据生成的数据集能够有效训练机器学习算法。
📝 摘要(中文)
本文旨在为机器学习在航天领域的应用生成合适的训练数据集,以克服算法验证中数据集不足的障碍。研究针对两个用例:与人造物体(ENVISAT卫星模型)的在轨交会和月球着陆场景,开发了一种稳健的方法来验证包含真实标签的数据集。数据集来源于存档数据(嫦娥三号)、德国航空航天中心(DLR)TRON设施、空客机器人实验室、SurRender软件高保真图像模拟器(使用模型捕获)以及生成对抗网络。通过选择基于人工智能的姿态估计算法和密集光流算法作为基准,验证了使用SurRender和选定的实验室设施生成的数据集足以训练机器学习算法。
🔬 方法详解
问题定义:论文旨在解决视觉导航中机器学习算法训练数据集不足的问题。现有方法要么依赖于昂贵的真实数据采集,要么依赖于真实度不足的模拟数据,难以保证算法的泛化能力。
核心思路:论文的核心思路是融合多种数据来源,包括真实数据、高保真模拟数据和生成数据,以构建一个全面且具有代表性的训练数据集。通过结合不同来源数据的优势,弥补单一数据来源的不足。
技术框架:该方法主要包含以下几个阶段:1) 定义用例场景(在轨交会、月球着陆);2) 选择基准算法(姿态估计、光流);3) 收集或生成数据(存档数据、实验室数据、SurRender模拟数据、GAN生成数据);4) 数据集验证(使用基准算法评估数据集的有效性)。
关键创新:论文的关键创新在于提出了一种系统性的数据集生成和验证方法,该方法能够有效地利用多种数据来源,并确保生成的数据集能够满足机器学习算法的训练需求。此外,使用SurRender进行高保真图像模拟也是一个亮点。
关键设计:在数据集生成方面,论文使用了SurRender软件进行高保真图像模拟,并通过模型捕获技术提高模拟数据的真实度。同时,利用生成对抗网络(GAN)生成更多样化的数据。在数据集验证方面,选择了AI姿态估计和密集光流算法作为benchmark,通过算法在数据集上的表现来评估数据集的质量。
🖼️ 关键图片
📊 实验亮点
实验结果表明,使用SurRender软件和实验室设施生成的数据集能够有效地训练机器学习算法,例如姿态估计和光流算法。这表明该方法能够生成高质量的训练数据集,为机器学习在航天领域的应用提供了有力支持。具体性能数据和提升幅度在论文中未明确给出。
🎯 应用场景
该研究成果可应用于航天器的自主导航、目标识别、姿态估计等领域。通过生成高质量的训练数据集,可以降低机器学习算法在航天领域应用的门槛,加速相关技术的发展和应用,例如在轨服务、行星探测等。
📄 摘要(原文)
Vision Based Navigation consists in utilizing cameras as precision sensors for GNC after extracting information from images. To enable the adoption of machine learning for space applications, one of obstacles is the demonstration that available training datasets are adequate to validate the algorithms. The objective of the study is to generate datasets of images and metadata suitable for training machine learning algorithms. Two use cases were selected and a robust methodology was developed to validate the datasets including the ground truth. The first use case is in-orbit rendezvous with a man-made object: a mockup of satellite ENVISAT. The second use case is a Lunar landing scenario. Datasets were produced from archival datasets (Chang'e 3), from the laboratory at DLR TRON facility and at Airbus Robotic laboratory, from SurRender software high fidelity image simulator using Model Capture and from Generative Adversarial Networks. The use case definition included the selection of algorithms as benchmark: an AI-based pose estimation algorithm and a dense optical flow algorithm were selected. Eventually it is demonstrated that datasets produced with SurRender and selected laboratory facilities are adequate to train machine learning algorithms.