RadarSplat-RIO: Indoor Radar-Inertial Odometry with Gaussian Splatting-Based Radar Bundle Adjustment

📄 arXiv: 2604.13492v1 📥 PDF

作者: Pou-Chun Kung, Yuan Tian, Zhengqin Li, Yue Liu, Eric Whitmire, Wolf Kienzle, Hrvoje Benko

分类: cs.RO, cs.CV

发布日期: 2026-04-15


💡 一句话要点

提出RadarSplat-RIO以解决室内雷达惯性测距中的漂移问题

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 雷达SLAM 束调整 高斯溅射 室内定位 惯性测距 多帧优化 鲁棒性提升

📋 核心要点

  1. 现有雷达SLAM方法依赖帧间测距,导致显著的姿态漂移,且回环闭合依赖于地点重识别,限制了鲁棒性。
  2. 本研究提出了基于高斯溅射的雷达束调整框架,首次实现了雷达传感器姿态和场景几何的联合优化。
  3. 实验结果显示,所提方法在多个室内场景中显著降低了姿态漂移,平均绝对平移和旋转误差分别减少了90%和80%。

📝 摘要(中文)

雷达在恶劣天气和光照条件下比视觉和激光雷达的同时定位与地图构建(SLAM)更具韧性。然而,大多数雷达SLAM管道仍然严重依赖帧间测距,导致显著的漂移。虽然回环闭合可以纠正长期误差,但需要重新访问地点并依赖于稳健的地点识别。与此不同,视觉测距方法通常利用束调整(BA)在局部窗口内联合优化姿态和地图。然而,雷达的等效BA公式尚未得到充分探索。我们提出了第一个基于高斯溅射(GS)的雷达BA框架,它是一种密集且可微分的场景表示。我们的方法使用全范围-方位-多普勒数据联合优化雷达传感器姿态和场景几何,为雷达首次带来了多帧BA的好处。与现有的雷达惯性测距前端集成后,我们的方法显著减少了姿态漂移并提高了鲁棒性。在多个室内场景中,我们的雷达BA在平均绝对平移和旋转误差上分别减少了90%和80%。

🔬 方法详解

问题定义:本论文旨在解决现有雷达SLAM方法中由于依赖帧间测距而导致的姿态漂移问题。现有方法在长时间运行时容易出现累积误差,且回环闭合的有效性受到地点重识别的限制。

核心思路:论文提出了一种基于高斯溅射的雷达束调整框架,利用全范围-方位-多普勒数据,联合优化雷达传感器的姿态和场景几何,从而克服了传统雷达方法的局限性。

技术框架:整体架构包括雷达数据采集模块、姿态估计模块和高斯溅射束调整模块。数据采集模块负责获取雷达的全范围数据,姿态估计模块进行初步的姿态推断,而高斯溅射束调整模块则进行联合优化。

关键创新:本研究的主要创新在于首次将高斯溅射应用于雷达束调整,形成了一种新的密集且可微分的场景表示方法,显著提高了雷达SLAM的精度和鲁棒性。

关键设计:在设计中,采用了特定的损失函数来优化姿态和几何关系,同时在网络结构中引入了高斯溅射机制,以确保优化过程的有效性和稳定性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,所提的雷达束调整方法在多个室内场景中显著提升了定位精度,平均绝对平移误差减少了90%,旋转误差减少了80%,相较于之前的雷达惯性测距方法表现出明显的优势。

🎯 应用场景

该研究的潜在应用领域包括室内导航、自动驾驶、机器人定位等。由于雷达在各种环境条件下的鲁棒性,该方法能够在复杂的室内环境中提供高精度的定位服务,具有广泛的实际价值和未来影响。

📄 摘要(原文)

Radar is more resilient to adverse weather and lighting conditions than visual and Lidar simultaneous localization and mapping (SLAM). However, most radar SLAM pipelines still rely heavily on frame-to-frame odometry, which leads to substantial drift. While loop closure can correct long-term errors, it requires revisiting places and relies on robust place recognition. In contrast, visual odometry methods typically leverage bundle adjustment (BA) to jointly optimize poses and map within a local window. However, an equivalent BA formulation for radar has remained largely unexplored. We present the first radar BA framework enabled by Gaussian Splatting (GS), a dense and differentiable scene representation. Our method jointly optimizes radar sensor poses and scene geometry using full range-azimuth-Doppler data, bringing the benefits of multi-frame BA to radar for the first time. When integrated with an existing radar-inertial odometry frontend, our approach significantly reduces pose drift and improves robustness. Across multiple indoor scenes, our radar BA achieves substantial gains over the prior radar-inertial odometry, reducing average absolute translational and rotational errors by 90% and 80%, respectively.