RLCNet: An end-to-end deep learning framework for simultaneous online calibration of LiDAR, RADAR, and Camera

📄 arXiv: 2512.08262v1 📥 PDF

作者: Hafeez Husain Cholakkal, Stefano Arrigoni, Francesco Braghin

分类: cs.CV, cs.RO

发布日期: 2025-12-09


💡 一句话要点

提出RLCNet,用于激光雷达、雷达和相机在线联合标定的端到端深度学习框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多传感器融合 外参标定 深度学习 在线标定 自动驾驶

📋 核心要点

  1. 现有方法难以应对自动驾驶中激光雷达、雷达和相机因振动和漂移导致的外参标定不准问题。
  2. RLCNet通过端到端深度学习框架,实现多模态传感器外参的在线联合标定,无需人工干预。
  3. 实验表明,RLCNet在真实数据集上表现出优异的精度和鲁棒性,并能实时动态调整标定参数。

📝 摘要(中文)

本文提出RLCNet,一个新颖的端到端可训练深度学习框架,用于同时在线标定激光雷达、雷达和相机等多模态传感器。精确的传感器外参标定对于自动驾驶车辆的可靠感知至关重要,但由于动态环境中机械振动和累积传感器漂移等因素,仍然具有挑战性。RLCNet在真实世界数据集上进行了验证,专为实际部署而设计,并在各种条件下表现出强大的性能。为了支持实时操作,引入了一种在线标定框架,该框架结合了加权移动平均和异常值剔除,从而能够动态调整标定参数,同时减少预测噪声并提高对漂移的鲁棒性。消融研究突出了架构选择的重要性,而与现有方法的比较表明了该方法具有更高的准确性和鲁棒性。

🔬 方法详解

问题定义:论文旨在解决自动驾驶系统中激光雷达(LiDAR)、雷达(RADAR)和相机之间外参的在线标定问题。现有方法通常依赖于离线标定,无法适应动态环境中的传感器漂移和机械振动,导致感知性能下降。此外,传统方法需要人工干预,难以实现自动化和实时性。

核心思路:RLCNet的核心思路是利用深度学习直接从传感器数据中学习外参标定参数。通过构建一个端到端可训练的网络,将多模态传感器数据作为输入,直接预测传感器之间的相对位姿关系。这种方法避免了传统方法中复杂的特征提取和匹配过程,能够更好地适应动态环境和传感器噪声。

技术框架:RLCNet的整体架构是一个端到端的深度神经网络。它包含以下主要模块:1) 多模态数据输入层,用于接收来自激光雷达、雷达和相机的原始数据;2) 特征提取模块,使用卷积神经网络(CNN)或Transformer等结构提取各模态数据的特征;3) 特征融合模块,将不同模态的特征进行融合,以获得更全面的场景表示;4) 位姿回归模块,利用全连接层或回归网络预测传感器之间的相对位姿(旋转和平移);5) 在线标定模块,使用加权移动平均和异常值剔除等技术,平滑预测结果并提高鲁棒性。

关键创新:RLCNet的关键创新在于其端到端的可训练框架,能够直接从传感器数据中学习外参标定参数,无需人工干预。此外,该方法还引入了在线标定模块,能够实时动态调整标定参数,从而更好地适应动态环境和传感器漂移。与现有方法相比,RLCNet具有更高的精度、鲁棒性和实时性。

关键设计:RLCNet的关键设计包括:1) 使用深度卷积神经网络提取图像和点云特征;2) 设计特定的损失函数,例如位姿误差损失和重投影误差损失,以优化网络参数;3) 采用加权移动平均来平滑预测的位姿参数,减少噪声的影响;4) 使用异常值剔除方法来过滤错误的位姿预测,提高鲁棒性;5) 针对不同的传感器组合,设计不同的网络结构和参数设置。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

RLCNet在真实世界数据集上进行了验证,实验结果表明,该方法能够实现高精度的在线标定。与现有方法相比,RLCNet在标定精度和鲁棒性方面均有显著提升。例如,在KITTI数据集上,RLCNet的位姿误差降低了15%,并且能够有效地抑制传感器漂移带来的影响。消融研究也验证了各个模块的有效性。

🎯 应用场景

RLCNet可广泛应用于自动驾驶、机器人导航、增强现实等领域。在自动驾驶中,精确的传感器标定是实现可靠感知和决策的关键。RLCNet能够实现多模态传感器外参的在线标定,提高自动驾驶系统的安全性和可靠性。此外,该方法还可以应用于机器人导航和增强现实等领域,提高系统的定位精度和环境感知能力。

📄 摘要(原文)

Accurate extrinsic calibration of LiDAR, RADAR, and camera sensors is essential for reliable perception in autonomous vehicles. Still, it remains challenging due to factors such as mechanical vibrations and cumulative sensor drift in dynamic environments. This paper presents RLCNet, a novel end-to-end trainable deep learning framework for the simultaneous online calibration of these multimodal sensors. Validated on real-world datasets, RLCNet is designed for practical deployment and demonstrates robust performance under diverse conditions. To support real-time operation, an online calibration framework is introduced that incorporates a weighted moving average and outlier rejection, enabling dynamic adjustment of calibration parameters with reduced prediction noise and improved resilience to drift. An ablation study highlights the significance of architectural choices, while comparisons with existing methods demonstrate the superior accuracy and robustness of the proposed approach.