Leg Exoskeleton Odometry using a Limited FOV Depth Sensor
作者: Fabio Elnecave Xavier, Matis Viozelange, Guillaume Burger, Marine Pétriaux, Jean-Emmanuel Deschaud, François Goulette
分类: cs.RO
发布日期: 2025-02-26
备注: Accepted to ICRA 2025
💡 一句话要点
针对腿部外骨骼,提出一种基于有限FOV深度传感器的里程计算法
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 腿部外骨骼 里程计 深度传感器 扩展卡尔曼滤波 迭代最近点
📋 核心要点
- 腿部外骨骼在真实环境应用中,受限于人体存在,深度传感器安装位置受限,导致视场小、传感器运动大,里程计构建困难。
- 提出一种新颖的里程计算法,融合外骨骼的本体感受数据和深度相机的点云,生成精确的高程图,解决视场受限问题。
- 实验结果表明,该方法相比纯本体感受基线,减少了漂移,提升了高程图质量,并优于传统的点云地图方法。
📝 摘要(中文)
为了使腿部外骨骼能够在真实环境中有效运行,它们必须能够感知和理解周围的地形。与其他腿式机器人不同,外骨骼由于人体用户的存在,在深度传感器的安装位置方面面临特定的约束。这些约束导致有限的视场(FOV)和更大的传感器运动,使得里程计的构建特别具有挑战性。为了解决这个问题,我们提出了一种新的里程计算法,该算法集成了来自外骨骼的本体感受数据和来自深度相机的点云,从而在这些限制下也能生成精确的高程图。我们的方法建立在扩展卡尔曼滤波器(EKF)的基础上,融合了运动学和惯性测量,同时结合了定制的迭代最近点(ICP)算法,以将新的点云与高程图进行配准。使用腿部外骨骼进行的实验验证表明,与纯本体感受基线相比,我们的方法减少了漂移并提高了高程图的质量,同时也优于更传统的基于点云地图的变体。
🔬 方法详解
问题定义:论文旨在解决腿部外骨骼在真实环境中进行地形感知时,由于传感器安装位置受限导致的里程计构建问题。现有方法,如纯本体感受里程计,容易产生累积误差(漂移)。传统的基于点云地图的里程计方法,在有限视场和剧烈传感器运动下,精度会显著下降。
核心思路:论文的核心思路是将外骨骼的本体感受数据(运动学和惯性测量)与深度相机获取的点云数据进行融合,利用扩展卡尔曼滤波器(EKF)进行状态估计,并结合定制的迭代最近点(ICP)算法进行点云配准,从而构建精确的高程图。通过融合多源信息,弥补单一传感器的不足。
技术框架:该算法主要包含以下几个模块:1) 数据采集:从外骨骼获取本体感受数据(关节角度、角速度等),从深度相机获取点云数据。2) 扩展卡尔曼滤波器(EKF):利用本体感受数据进行状态预测,并利用ICP配准结果进行状态更新。3) 迭代最近点(ICP):将新的点云与高程图进行配准,估计传感器位姿。4) 高程图构建:将配准后的点云融合到高程图中,并进行更新。
关键创新:该方法的关键创新在于针对腿部外骨骼的特殊约束,设计了一种融合本体感受和视觉信息的里程计算法。与传统方法相比,该方法能够更好地处理有限视场和剧烈传感器运动带来的挑战。定制的ICP算法可能包含针对外骨骼运动特点的优化。
关键设计:论文中可能包含以下关键设计细节:1) EKF的状态向量定义,包括位置、姿态、速度等。2) EKF的噪声模型,如何对本体感受数据和视觉数据的不确定性进行建模。3) ICP算法的参数设置,如最大迭代次数、收敛阈值等。4) 高程图的表示方法,如栅格地图、TSDF等。5) 损失函数的设计,用于优化ICP配准结果。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在腿部外骨骼上能够有效减少里程计漂移,提升高程图的质量。与纯本体感受基线相比,该方法显著提高了定位精度。同时,该方法也优于传统的基于点云地图的里程计方法,证明了其在有限视场和剧烈传感器运动条件下的优越性。具体的性能提升数据(如漂移量减少百分比、高程图精度提升量)需要在论文中查找。
🎯 应用场景
该研究成果可应用于各种腿部外骨骼系统,提高其在复杂地形环境下的自主导航和运动控制能力。例如,可用于辅助行动不便的人士,或在工业、救援等领域提供增强型的人工操作能力。未来,该技术可进一步扩展到其他类型的可穿戴机器人和辅助设备。
📄 摘要(原文)
For leg exoskeletons to operate effectively in real-world environments, they must be able to perceive and understand the terrain around them. However, unlike other legged robots, exoskeletons face specific constraints on where depth sensors can be mounted due to the presence of a human user. These constraints lead to a limited Field Of View (FOV) and greater sensor motion, making odometry particularly challenging. To address this, we propose a novel odometry algorithm that integrates proprioceptive data from the exoskeleton with point clouds from a depth camera to produce accurate elevation maps despite these limitations. Our method builds on an extended Kalman filter (EKF) to fuse kinematic and inertial measurements, while incorporating a tailored iterative closest point (ICP) algorithm to register new point clouds with the elevation map. Experimental validation with a leg exoskeleton demonstrates that our approach reduces drift and enhances the quality of elevation maps compared to a purely proprioceptive baseline, while also outperforming a more traditional point cloud map-based variant.