BEV-Patch-PF: Particle Filtering with BEV-Aerial Feature Matching for Off-Road Geo-Localization

📄 arXiv: 2512.15111v1 📥 PDF

作者: Dongmyeong Lee, Jesse Quattrociocchi, Christian Ellis, Rwik Rana, Amanda Adkins, Adam Uccello, Garrett Warnell, Joydeep Biswas

分类: cs.RO, cs.CV

发布日期: 2025-12-17


💡 一句话要点

提出BEV-Patch-PF,利用BEV特征匹配的粒子滤波实现越野环境无GPS定位

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction)

关键词: 越野定位 无GPS定位 鸟瞰图特征 粒子滤波 特征匹配

📋 核心要点

  1. 现有越野定位方法依赖GPS或在复杂环境(如树荫下)表现不佳,限制了机器人自主导航能力。
  2. BEV-Patch-PF利用车载RGB-D数据构建BEV特征图,并与航拍图像特征进行匹配,实现无GPS精确定位。
  3. 实验表明,该方法在真实越野场景中显著降低了定位误差,且在树荫等复杂光照条件下保持鲁棒性,并能实时运行。

📝 摘要(中文)

本文提出了一种名为BEV-Patch-PF的无GPS序列地理定位系统,该系统集成了粒子滤波与学习到的鸟瞰图(BEV)和航拍特征图。系统首先从车载RGB和深度图像构建BEV特征图。然后,对于每个3自由度粒子姿态假设,从围绕近似位置查询的局部航拍图像计算出的航拍特征图中裁剪相应的patch。BEV-Patch-PF通过匹配BEV特征与航拍patch特征来计算每个粒子的对数似然。在两个真实世界的越野数据集上,与基于检索的基线方法相比,我们的方法在已见路线上的绝对轨迹误差(ATE)降低了7.5倍,在未见路线上的ATE降低了7.0倍,同时保持了在密集树冠和阴影下的准确性。该系统在NVIDIA Tesla T4上以10 Hz的实时运行,从而实现了实际的机器人部署。

🔬 方法详解

问题定义:在越野环境中,由于GPS信号弱或缺失,以及环境的复杂性(如植被遮挡、光照变化),实现准确的机器人定位是一个挑战。现有的基于视觉的定位方法,例如基于图像检索的方法,在面对视角变化、光照变化和环境相似性时,容易出现定位失败。因此,需要一种鲁棒且准确的无GPS越野定位方法。

核心思路:BEV-Patch-PF的核心思路是利用鸟瞰图(BEV)特征匹配来估计机器人的位姿。通过将车载RGB-D图像转换为BEV特征图,并将其与从航拍图像中提取的对应区域的特征进行匹配,可以有效地解决视角变化的问题。粒子滤波框架用于融合时间信息,提高定位的鲁棒性。

技术框架:BEV-Patch-PF系统主要包含以下几个模块:1) BEV特征提取模块:从车载RGB-D图像中提取BEV特征图;2) 航拍特征提取模块:从航拍图像中提取特征图;3) 粒子滤波模块:维护一组粒子,每个粒子代表一个可能的机器人位姿;4) 似然计算模块:计算每个粒子的似然,基于BEV特征图和航拍特征图的匹配程度;5) 位姿估计模块:根据粒子的权重估计机器人的最终位姿。

关键创新:该方法的关键创新在于将BEV特征匹配与粒子滤波相结合,用于越野环境的无GPS定位。与传统的基于图像检索的方法相比,BEV特征匹配对视角变化更加鲁棒。此外,粒子滤波框架能够有效地融合时间信息,提高定位的准确性和鲁棒性。利用学习到的特征表示,能够更好地适应复杂环境的变化。

关键设计:BEV特征提取模块使用深度学习模型将RGB-D图像转换为BEV特征图。航拍特征提取模块也使用深度学习模型提取航拍图像的特征。似然计算模块使用余弦相似度来衡量BEV特征图和航拍特征图的匹配程度。粒子滤波模块使用重采样、运动模型和观测模型来更新粒子的权重。运动模型基于机器人的运动学模型,观测模型基于BEV特征匹配的似然。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在两个真实世界的越野数据集上,BEV-Patch-PF的性能显著优于基于检索的基线方法。在已见路线上的绝对轨迹误差(ATE)降低了7.5倍,在未见路线上的ATE降低了7.0倍。此外,该方法在密集树冠和阴影等复杂光照条件下仍能保持较高的定位精度,并且能够在NVIDIA Tesla T4上以10 Hz的实时运行。

🎯 应用场景

该研究成果可应用于多种场景,例如农业机器人、林业巡检机器人、搜救机器人等,这些场景通常缺乏可靠的GPS信号。该方法能够提高机器人在复杂环境中的自主导航能力,降低对基础设施的依赖,具有重要的实际应用价值和广阔的应用前景。

📄 摘要(原文)

We propose BEV-Patch-PF, a GPS-free sequential geo-localization system that integrates a particle filter with learned bird's-eye-view (BEV) and aerial feature maps. From onboard RGB and depth images, we construct a BEV feature map. For each 3-DoF particle pose hypothesis, we crop the corresponding patch from an aerial feature map computed from a local aerial image queried around the approximate location. BEV-Patch-PF computes a per-particle log-likelihood by matching the BEV feature to the aerial patch feature. On two real-world off-road datasets, our method achieves 7.5x lower absolute trajectory error (ATE) on seen routes and 7.0x lower ATE on unseen routes than a retrieval-based baseline, while maintaining accuracy under dense canopy and shadow. The system runs in real time at 10 Hz on an NVIDIA Tesla T4, enabling practical robot deployment.