GeoFlow-SLAM: A Robust Tightly-Coupled RGBD-Inertial and Legged Odometry Fusion SLAM for Dynamic Legged Robotics
作者: Tingyang Xiao, Xiaolin Zhou, Liu Liu, Wei Sui, Wei Feng, Jiaxiong Qiu, Xinjie Wang, Zhizhong Su
分类: cs.RO, cs.AI
发布日期: 2025-03-18 (更新: 2025-07-22)
备注: 8 pages
🔗 代码/项目: GITHUB
💡 一句话要点
GeoFlow-SLAM:针对动态足式机器人的鲁棒紧耦合RGBD-惯性与腿部里程计融合SLAM
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics) 支柱六:视频提取与匹配 (Video Extraction) 支柱七:动作重定向 (Motion Retargeting)
关键词: 足式机器人 SLAM RGBD-惯性融合 光流 紧耦合优化 位姿估计 几何约束
📋 核心要点
- 现有足式机器人SLAM在快速运动和无纹理环境中,面临特征匹配困难和位姿初始化失败的挑战。
- GeoFlow-SLAM融合几何一致性、腿部里程计和双流光流,提升特征匹配,并提出鲁棒的位姿初始化方法。
- 实验结果表明,该方法在足式机器人和开源数据集上均达到了当前最优的性能。
📝 摘要(中文)
本文提出了一种名为GeoFlow-SLAM的鲁棒且有效的紧耦合RGBD-惯性SLAM,专为在剧烈和高频运动下的足式机器人设计。通过整合几何一致性、腿部里程计约束和双流光流(GeoFlow),我们的方法解决了三个关键挑战:快速运动期间的特征匹配和位姿初始化失败,以及在无纹理场景中的视觉特征稀疏性。具体而言,在快速运动场景中,利用结合了先验地图点和位姿的双流光流显著增强了特征匹配。此外,我们提出了一种鲁棒的位姿初始化方法,用于解决足式机器人在快速运动和IMU误差下的问题,该方法集成了IMU/腿部里程计、帧间透视N点(PnP)和广义迭代最近点(GICP)。此外,首次引入了一种新的优化框架,该框架紧密耦合了深度到地图和GICP几何约束,以提高在长时间、视觉无纹理环境中的鲁棒性和准确性。所提出的算法在收集的足式机器人和开源数据集上实现了最先进(SOTA)的性能。为了进一步促进研究和开发,开源数据集和代码将在https://github.com/HorizonRobotics/GeoFlowSlam上公开。
🔬 方法详解
问题定义:足式机器人在剧烈运动和无纹理环境中,传统视觉SLAM方法容易出现特征匹配失败和位姿初始化错误,导致定位精度下降甚至系统崩溃。现有的方法难以同时处理快速运动带来的图像模糊和无纹理环境下的特征缺失问题。
核心思路:GeoFlow-SLAM的核心思路是利用双流光流增强特征匹配,并结合腿部里程计和IMU信息进行鲁棒的位姿初始化。通过紧耦合深度信息、几何约束和运动信息,提高SLAM系统在复杂环境下的鲁棒性和准确性。
技术框架:GeoFlow-SLAM包含以下主要模块:1) 双流光流模块,用于增强特征匹配;2) 基于IMU/腿部里程计、PnP和GICP的位姿初始化模块;3) 紧耦合的深度到地图和GICP几何约束优化框架。整体流程为:首先利用双流光流进行特征匹配,然后结合IMU和腿部里程计进行位姿初始化,最后通过紧耦合优化框架进行全局优化。
关键创新:该论文的关键创新在于:1) 提出了双流光流方法,有效提升了快速运动场景下的特征匹配性能;2) 设计了一种鲁棒的位姿初始化方法,能够有效应对快速运动和IMU误差;3) 首次引入了紧耦合的深度到地图和GICP几何约束优化框架,提高了在无纹理环境下的定位精度。
关键设计:双流光流结合了先验地图点和位姿信息,提高了光流估计的准确性。位姿初始化模块综合考虑了IMU、腿部里程计和视觉信息,提高了初始位姿的可靠性。紧耦合优化框架通过最小化深度到地图和GICP的几何误差,实现了全局一致的地图构建和定位。
📊 实验亮点
GeoFlow-SLAM在自建的足式机器人数据集和公开数据集上均取得了SOTA结果。双流光流显著提升了特征匹配的准确性,鲁棒的位姿初始化方法有效降低了初始化误差。紧耦合优化框架在长时间、无纹理环境中表现出优异的定位精度和鲁棒性。具体性能数据将在开源代码和数据集中提供。
🎯 应用场景
GeoFlow-SLAM可应用于各种足式机器人平台,例如四足机器人、双足机器人等,尤其适用于需要在复杂、动态和无纹理环境中进行自主导航和探索的场景,如搜救、巡检、物流等。该研究成果有助于提升足式机器人在实际应用中的可靠性和智能化水平。
📄 摘要(原文)
This paper presents GeoFlow-SLAM, a robust and effective Tightly-Coupled RGBD-inertial SLAM for legged robotics undergoing aggressive and high-frequency motions.By integrating geometric consistency, legged odometry constraints, and dual-stream optical flow (GeoFlow), our method addresses three critical challenges:feature matching and pose initialization failures during fast locomotion and visual feature scarcity in texture-less scenes.Specifically, in rapid motion scenarios, feature matching is notably enhanced by leveraging dual-stream optical flow, which combines prior map points and poses. Additionally, we propose a robust pose initialization method for fast locomotion and IMU error in legged robots, integrating IMU/Legged odometry, inter-frame Perspective-n-Point (PnP), and Generalized Iterative Closest Point (GICP). Furthermore, a novel optimization framework that tightly couples depth-to-map and GICP geometric constraints is first introduced to improve the robustness and accuracy in long-duration, visually texture-less environments. The proposed algorithms achieve state-of-the-art (SOTA) on collected legged robots and open-source datasets. To further promote research and development, the open-source datasets and code will be made publicly available at https://github.com/HorizonRobotics/GeoFlowSlam