Real-Time Truly-Coupled Lidar-Inertial Motion Correction and Spatiotemporal Dynamic Object Detection

📄 arXiv: 2410.05152v1 📥 PDF

作者: Cedric Le Gentil, Raphael Falque, Teresa Vidal-Calleja

分类: cs.RO

发布日期: 2024-10-07

备注: Paper presented at the 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)


💡 一句话要点

提出一种实时真耦合的激光雷达-惯性运动校正与时空动态物体检测方法

🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)

关键词: 激光雷达 惯性测量单元 运动校正 动态物体检测 紧耦合 时空分析 机器人导航

📋 核心要点

  1. 现有激光雷达通常采用滚动快门机制,导致扫描数据存在运动畸变,影响下游感知任务的准确性。
  2. 论文提出一种紧耦合激光雷达和IMU数据的方法,通过连续预积分IMU测量来校正激光雷达数据的运动畸变。
  3. 该方法无需全局地图,通过计算时空法向量来估计点的速度,从而实现免学习的动态物体检测,并在公共数据集上验证了有效性。

📝 摘要(中文)

本文提出了一种新的激光雷达数据运动畸变校正方法,该方法将激光雷达与惯性测量单元(IMU)数据紧密耦合。该工作的动机是基于激光雷达的无地图动态物体检测。所提出的激光雷达数据去畸变方法依赖于IMU测量的连续预积分,仅使用十一个离散状态变量(偏差、初始速度和重力方向)来参数化传感器的连续6自由度轨迹。去畸变包括在非线性最小二乘公式中,基于特征的点到线和点到面残差的距离最小化。在短时间窗口内,利用去畸变的几何数据,该流程计算每个激光雷达点的时空法向量。法向量的时间分量代表相应点的速度,因此无需在全球参考系中进行配准,即可实现免学习的动态物体分类。我们使用公共数据集验证了所提出方法及其不同组件的合理性,并将其与最先进的激光雷达-惯性状态估计和动态物体检测算法进行了比较。

🔬 方法详解

问题定义:论文旨在解决激光雷达扫描数据因自身运动产生的畸变问题,以及如何在此基础上进行动态物体的检测。现有方法通常依赖全局地图或复杂的学习模型,计算量大,实时性差,且对环境的适应性有限。

核心思路:论文的核心思路是利用IMU数据对激光雷达数据进行运动补偿,从而消除畸变。通过紧耦合的激光雷达和IMU数据,可以更准确地估计传感器的运动轨迹,进而校正激光雷达点云。在此基础上,通过分析点云的时空特性,实现动态物体的检测,避免了对全局地图的依赖。

技术框架:该方法主要包含两个阶段:1) 激光雷达数据去畸变:利用IMU数据进行运动估计,并对激光雷达点云进行去畸变处理。2) 动态物体检测:计算去畸变点云的时空法向量,并利用法向量的时间分量进行动态物体分类。整个流程无需全局地图,实现了实时的动态物体检测。

关键创新:该方法最重要的创新点在于:1) 提出了一种紧耦合的激光雷达-IMU运动校正方法,能够更准确地估计传感器的运动轨迹。2) 提出了一种基于时空法向量的动态物体检测方法,无需全局地图和复杂的学习模型,实现了免学习的动态物体检测。

关键设计:在运动校正方面,论文采用了连续预积分IMU测量的方法,仅使用十一个离散状态变量来参数化传感器的6自由度轨迹。在动态物体检测方面,论文通过计算点云的时空法向量,并利用法向量的时间分量作为速度的代理,从而实现动态物体的分类。具体的损失函数采用了点到线和点到面的残差最小化方法。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文在公共数据集上验证了所提出方法的有效性,并与最先进的激光雷达-惯性状态估计和动态物体检测算法进行了比较。实验结果表明,该方法能够有效地校正激光雷达数据的运动畸变,并实现准确的动态物体检测。具体的性能数据和提升幅度在论文中进行了详细的展示。

🎯 应用场景

该研究成果可应用于自动驾驶、机器人导航、增强现实等领域。通过实时校正激光雷达数据并检测动态物体,可以提高机器人对环境的感知能力,增强其在复杂动态环境中的适应性和安全性。该方法无需全局地图,降低了对环境的依赖,使其更适用于未知或变化的环境。

📄 摘要(原文)

Over the past decade, lidars have become a cornerstone of robotics state estimation and perception thanks to their ability to provide accurate geometric information about their surroundings in the form of 3D scans. Unfortunately, most of nowadays lidars do not take snapshots of the environment but sweep the environment over a period of time (typically around 100 ms). Such a rolling-shutter-like mechanism introduces motion distortion into the collected lidar scan, thus hindering downstream perception applications. In this paper, we present a novel method for motion distortion correction of lidar data by tightly coupling lidar with Inertial Measurement Unit (IMU) data. The motivation of this work is a map-free dynamic object detection based on lidar. The proposed lidar data undistortion method relies on continuous preintegrated of IMU measurements that allow parameterising the sensors' continuous 6-DoF trajectory using solely eleven discrete state variables (biases, initial velocity, and gravity direction). The undistortion consists of feature-based distance minimisation of point-to-line and point-to-plane residuals in a non-linear least-square formulation. Given undistorted geometric data over a short temporal window, the proposed pipeline computes the spatiotemporal normal vector of each of the lidar points. The temporal component of the normals is a proxy for the corresponding point's velocity, therefore allowing for learning-free dynamic object classification without the need for registration in a global reference frame. We demonstrate the soundness of the proposed method and its different components using public datasets and compare them with state-of-the-art lidar-inertial state estimation and dynamic object detection algorithms.