A2VISR: An Active and Adaptive Ground-Aerial Localization System Using Visual Inertial and Single-Range Fusion

📄 arXiv: 2512.16367v1 📥 PDF

作者: Sijia Chen, Wei Dong

分类: cs.RO

发布日期: 2025-12-18

备注: accept by IEEE Transactions on Industrial Electronics


💡 一句话要点

提出A2VISR,融合视觉惯导与单点测距,提升复杂环境下无人机定位鲁棒性

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 无人机定位 视觉惯导融合 主动视觉 单点测距 多传感器融合 鲁棒定位 地面-空中协同

📋 核心要点

  1. 现有方法依赖固定相机和预设标记,易受距离限制和捕获失败影响,难以在复杂环境中保证无人机定位的鲁棒性。
  2. A2VISR通过地面主动视觉系统动态跟踪空中机器人,并融合单点测距、惯性里程计和光流等多源信息,提升定位的准确性和可靠性。
  3. 实验结果表明,A2VISR在多种复杂场景下实现了鲁棒的在线定位,平均均方根误差约为0.09米,并对传感器故障具有一定的容错能力。

📝 摘要(中文)

本文提出了一种基于地面-空中协同系统的主动自适应定位方法A2VISR,旨在提升飞行机器人在复杂环境中,尤其是在视觉传感器性能下降时的定位鲁棒性。传统方法依赖固定相机观测预设标记来估计飞行机器人位置,但受限于距离和易捕获失败。为解决此问题,本文改进了地面-空中定位框架,集成了主动视觉、单点测距、惯性里程计和光流。地面车辆搭载的主动视觉子系统可动态旋转,利用单相机检测和跟踪空中机器人上的红外标记,扩大视野和目标识别能力。单点测距的引入扩展了可行距离,增强了视觉退化下的重捕获能力。在估计过程中,降维估计器基于扩展滑动窗口的多项式逼近融合多源测量,平衡了计算效率和冗余。针对不同传感器置信度,自适应滑动置信度评估算法评估测量质量,并基于移动方差动态调整权重参数。大量实验表明,在烟雾干扰、光照变化、障碍物遮挡、长时间视觉丢失和扩展操作范围等条件下,该方法实现了鲁棒的在线定位,平均均方根误差约为0.09米,同时保持了对捕获丢失和传感器故障的弹性。

🔬 方法详解

问题定义:论文旨在解决复杂环境下,尤其是在视觉传感器性能下降时,飞行机器人定位鲁棒性不足的问题。现有方法依赖固定相机观测预设标记,存在视野受限、距离限制以及易受遮挡和光照变化影响等痛点,导致定位精度下降甚至定位失败。

核心思路:论文的核心思路是构建一个地面-空中协同定位系统,利用地面车辆搭载的主动视觉系统动态跟踪空中机器人,并融合单点测距、惯性里程计和光流等多源信息,实现更准确、更鲁棒的定位。主动视觉系统可以扩大视野范围,单点测距可以扩展可行距离,多源信息融合可以提高系统对传感器噪声和故障的容错能力。

技术框架:A2VISR系统的整体框架包括以下几个主要模块:1) 地面主动视觉子系统:负责检测和跟踪空中机器人上的红外标记。2) 单点测距模块:测量地面车辆和空中机器人之间的距离。3) 惯性里程计模块:估计空中机器人的姿态和运动。4) 光流模块:估计空中机器人的运动。5) 降维估计器:融合多源测量信息,估计空中机器人的位置。6) 自适应滑动置信度评估算法:评估测量质量,动态调整权重参数。

关键创新:论文的关键创新在于:1) 提出了一种基于地面主动视觉的无人机定位方法,可以动态调整视野范围,提高目标识别能力。2) 融合了单点测距、惯性里程计和光流等多源信息,提高了定位的鲁棒性和准确性。3) 提出了一种自适应滑动置信度评估算法,可以根据传感器质量动态调整权重参数,进一步提高了定位的可靠性。与现有方法相比,A2VISR能够更好地应对复杂环境下的挑战。

关键设计:主动视觉系统采用单相机和旋转机构,通过控制旋转机构实现对空中机器人的跟踪。降维估计器采用扩展滑动窗口和多项式逼近,在保证计算效率的同时,提高了估计精度。自适应滑动置信度评估算法基于移动方差评估测量质量,并使用加权最小二乘法融合多源信息。具体的参数设置和损失函数细节在论文中进行了详细描述(未知)。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,A2VISR在烟雾干扰、光照变化、障碍物遮挡、长时间视觉丢失和扩展操作范围等复杂条件下,实现了鲁棒的在线定位,平均均方根误差约为0.09米。相较于传统方法,A2VISR在视觉退化和传感器故障情况下表现出更强的适应性和容错能力,显著提升了定位的可靠性和稳定性。

🎯 应用场景

A2VISR系统可应用于复杂环境下的无人机自主导航、目标跟踪、协同作业等领域。例如,在仓库管理中,可用于无人机自主盘点货物;在灾难救援中,可用于无人机搜索幸存者;在工业巡检中,可用于无人机检测设备故障。该研究成果有助于提升无人机在复杂环境下的作业能力,具有重要的实际应用价值和广阔的发展前景。

📄 摘要(原文)

It's a practical approach using the ground-aerial collaborative system to enhance the localization robustness of flying robots in cluttered environments, especially when visual sensors degrade. Conventional approaches estimate the flying robot's position using fixed cameras observing pre-attached markers, which could be constrained by limited distance and susceptible to capture failure. To address this issue, we improve the ground-aerial localization framework in a more comprehensive manner, which integrates active vision, single-ranging, inertial odometry, and optical flow. First, the designed active vision subsystem mounted on the ground vehicle can be dynamically rotated to detect and track infrared markers on the aerial robot, improving the field of view and the target recognition with a single camera. Meanwhile, the incorporation of single-ranging extends the feasible distance and enhances re-capture capability under visual degradation. During estimation, a dimension-reduced estimator fuses multi-source measurements based on polynomial approximation with an extended sliding window, balancing computational efficiency and redundancy. Considering different sensor fidelities, an adaptive sliding confidence evaluation algorithm is implemented to assess measurement quality and dynamically adjust the weighting parameters based on moving variance. Finally, extensive experiments under conditions such as smoke interference, illumination variation, obstacle occlusion, prolonged visual loss, and extended operating range demonstrate that the proposed approach achieves robust online localization, with an average root mean square error of approximately 0.09 m, while maintaining resilience to capture loss and sensor failures.