Enhanced Monocular Visual Odometry with AR Poses and Integrated INS-GPS for Robust Localization in Urban Environments
作者: Ankit Shaw
分类: cs.RO
发布日期: 2024-11-12 (更新: 2024-11-24)
备注: The copyright of this paper would be given to IEEE after "acceptance of paper by IEEE"
💡 一句话要点
结合AR位姿与INS-GPS的单目视觉里程计,提升城市环境定位鲁棒性
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 单目视觉里程计 增强现实 INS-GPS融合 扩展卡尔曼滤波 城市定位
📋 核心要点
- 单目视觉里程计存在尺度不确定性,限制了其在精确导航中的应用。
- 利用增强现实(AR)位姿提供尺度信息,并融合INS/GPS数据,提升定位精度和鲁棒性。
- 在Google街景数据集上验证,实现了1.529米的RMSE,验证了方法的有效性。
📝 摘要(中文)
本文提出了一种经济高效的定位系统,该系统结合了单目视觉里程计、增强现实(AR)位姿以及集成的INS-GPS数据。我们利用AR位姿解决单目VO的尺度因子问题,并通过扩展卡尔曼滤波器融合INS和GPS数据来提高定位精度。该方法使用Google街景的手动标注轨迹进行测试,在1公里长的轨迹上实现了1.529米的均方根误差(RMSE)。未来的工作将侧重于实时移动端的实现,并进一步集成视觉惯性里程计以实现更鲁棒的定位。该方法以最少的硬件提供车道级精度,使高级导航更易于实现。
🔬 方法详解
问题定义:单目视觉里程计(VO)在城市环境中面临尺度漂移的问题,导致定位精度下降。现有的VO方法难以在低成本硬件上实现高精度的定位,尤其是在GPS信号较弱或遮挡的环境中。
核心思路:本文的核心思路是利用增强现实(AR)技术提供的绝对位姿信息来约束单目VO的尺度,并结合惯性导航系统(INS)和全球定位系统(GPS)的数据,通过融合多种传感器信息来提高定位的精度和鲁棒性。
技术框架:该系统主要包含三个模块:单目视觉里程计模块、AR位姿估计模块和INS-GPS数据融合模块。单目VO模块负责估计相机的相对运动;AR位姿估计模块提供绝对尺度信息;INS-GPS数据融合模块使用扩展卡尔曼滤波器(EKF)将来自不同传感器的数据进行融合,得到最终的定位结果。
关键创新:该方法的关键创新在于将AR位姿信息引入到单目VO系统中,有效地解决了尺度漂移问题。同时,通过EKF融合INS和GPS数据,进一步提高了定位的精度和鲁棒性。这种多传感器融合的方法能够在低成本硬件上实现较高的定位精度。
关键设计:AR位姿的获取方式未知,论文中没有详细说明。EKF的设计是关键,需要仔细选择状态向量、过程噪声和测量噪声。具体参数设置未知。损失函数没有提及,可能是EKF本身的状态更新方程。
🖼️ 关键图片
📊 实验亮点
该方法在Google街景数据集上进行了测试,在1公里长的轨迹上实现了1.529米的均方根误差(RMSE)。这一结果表明,该方法能够有效地提高单目VO的定位精度,并且具有一定的鲁棒性。该方法在低成本硬件上实现了车道级精度,具有很高的实际应用价值。
🎯 应用场景
该研究成果可应用于低成本、高精度的城市导航系统,例如自动驾驶、增强现实导航、物流配送等领域。通过结合视觉、惯性和GPS信息,该方法能够在复杂的城市环境中提供可靠的定位服务,具有广阔的应用前景。
📄 摘要(原文)
This paper introduces a cost effective localization system combining monocular visual odometry , augmented reality (AR) poses, and integrated INS-GPS data. We address monocular VO scale factor issues using AR poses and enhance accuracy with INS and GPS data, filtered through an Extended Kalman Filter . Our approach, tested using manually annotated trajectories from Google Street View, achieves an RMSE of 1.529 meters over a 1 km track. Future work will focus on real-time mobile implementation and further integration of visual-inertial odometry for robust localization. This method offers lane-level accuracy with minimal hardware, making advanced navigation more accessible.