Drift-Corrected Monocular VIO and Perception-Aware Planning for Autonomous Drone Racing
作者: Maulana Bisyir Azhari, Donghun Han, Je In You, Sungjun Park, David Hyunchul Shim
分类: cs.RO
发布日期: 2025-12-23
💡 一句话要点
针对无人机竞速,提出漂移校正的单目VIO与感知驱动规划方法
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 无人机竞速 单目视觉 视觉惯性里程计 漂移校正 卡尔曼滤波 目标检测 轨迹规划
📋 核心要点
- 无人机竞速对自主导航提出挑战,单目视觉和低成本IMU易受漂移影响,导致定位精度下降。
- 提出融合YOLO门检测的全局位置信息与VIO的卡尔曼滤波方法,校正漂移,提升定位精度。
- 感知驱动的轨迹规划器平衡速度与门可见性,确保导航系统稳定运行,并在比赛中取得优异成绩。
📝 摘要(中文)
本文提出了一种用于无人机竞速的系统,该系统仅使用单个摄像头和低质量惯性测量单元,模拟了人类无人机竞速飞行员的最小传感器配置。这种传感器限制使得系统容易受到视觉惯性里程计(VIO)的漂移影响,特别是在长时间、快速和激进的飞行中。该方法通过卡尔曼滤波融合VIO的输出和基于YOLO的门检测器获得的全局位置测量来校正VIO漂移。感知驱动的规划器生成轨迹,平衡速度与保持门对感知系统可见的需求。该系统表现出高性能,在多个类别中获得领奖台:在AI Grand Challenge中获得第三名,最高速度为43.2公里/小时;在AI Drag Race中获得第二名,速度超过59公里/小时;在AI Multi-Drone Race中获得第二名。本文详细介绍了完整的架构,并基于比赛的实验数据进行了性能分析,为构建成功的基于单目视觉的自主无人机飞行系统贡献了见解。
🔬 方法详解
问题定义:无人机自主竞速任务中,仅使用单目相机和低质量IMU时,VIO算法容易产生累积漂移,尤其是在高速和剧烈运动下,导致定位不准确,影响无人机的导航和控制。现有方法难以在资源受限的条件下,同时保证定位精度和运动速度。
核心思路:通过融合视觉信息和惯性信息,并引入全局位置信息进行漂移校正。具体来说,利用YOLO目标检测器识别赛道中的门,提取其位置信息,然后使用卡尔曼滤波器将这些全局位置信息与VIO的输出进行融合,从而减小VIO的漂移。同时,设计感知驱动的轨迹规划器,确保无人机在高速运动时,仍然能够保持对门的可见性,为视觉定位提供可靠的输入。
技术框架:整个系统包含三个主要模块:1) 基于单目视觉的VIO模块,用于估计无人机的姿态和速度;2) 基于YOLO的门检测模块,用于检测赛道中的门,并估计其在全局坐标系中的位置;3) 卡尔曼滤波模块,用于融合VIO的输出和门检测模块的输出,校正VIO的漂移。此外,还包括一个感知驱动的轨迹规划模块,用于生成满足速度和可见性要求的轨迹。
关键创新:该方法的关键创新在于将全局视觉信息(门的位置)融入到VIO框架中,实现漂移校正。与传统的VIO方法相比,该方法能够显著提高定位精度,尤其是在长时间和剧烈运动下。此外,感知驱动的轨迹规划器能够根据视觉感知的结果动态调整轨迹,确保无人机始终能够看到门,从而保证定位的可靠性。
关键设计:卡尔曼滤波器的状态向量包括无人机的位置、速度和姿态。观测向量包括门的位置。卡尔曼滤波器的过程噪声和观测噪声需要根据实际情况进行调整。感知驱动的轨迹规划器使用了一种基于优化的方法,目标函数包括轨迹的平滑性、速度和与门的距离。通过调整这些参数,可以平衡速度和可见性。
🖼️ 关键图片
📊 实验亮点
该系统在阿布扎比自主竞速联盟(A2RL) x 无人机冠军联赛(DCL)比赛中取得了优异成绩,包括:AI Grand Challenge第三名(最高速度43.2 km/h)、AI Drag Race第二名(速度超过59 km/h)和AI Multi-Drone Race第二名。这些结果表明,该系统在高速、高动态的无人机竞速环境中具有很强的竞争力。
🎯 应用场景
该研究成果可应用于多种无人机自主导航场景,例如:物流配送、环境监测、灾害救援等。通过融合视觉信息和惯性信息,并进行漂移校正,可以提高无人机在复杂环境下的定位精度和导航能力。此外,感知驱动的轨迹规划方法可以确保无人机在高速运动时,仍然能够保持对目标的可见性,从而提高任务的完成效率。
📄 摘要(原文)
The Abu Dhabi Autonomous Racing League(A2RL) x Drone Champions League competition(DCL) requires teams to perform high-speed autonomous drone racing using only a single camera and a low-quality inertial measurement unit -- a minimal sensor set that mirrors expert human drone racing pilots. This sensor limitation makes the system susceptible to drift from Visual-Inertial Odometry (VIO), particularly during long and fast flights with aggressive maneuvers. This paper presents the system developed for the championship, which achieved a competitive performance. Our approach corrected VIO drift by fusing its output with global position measurements derived from a YOLO-based gate detector using a Kalman filter. A perception-aware planner generated trajectories that balance speed with the need to keep gates visible for the perception system. The system demonstrated high performance, securing podium finishes across multiple categories: third place in the AI Grand Challenge with top speed of 43.2 km/h, second place in the AI Drag Race with over 59 km/h, and second place in the AI Multi-Drone Race. We detail the complete architecture and present a performance analysis based on experimental data from the competition, contributing our insights on building a successful system for monocular vision-based autonomous drone flight.