CT-VIR: Continuous-Time Visual-Inertial-Ranging Fusion for Indoor Localization with Sparse Anchors

📄 arXiv: 2604.14545v1 📥 PDF

作者: Yu-An Liu, Li Zhang

分类: cs.RO

发布日期: 2026-04-16


💡 一句话要点

提出CT-VIR,利用连续时间视觉惯性测距融合实现稀疏锚点的室内定位

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 视觉惯性里程计 超宽带测距 连续时间估计 室内定位 多传感器融合

📋 核心要点

  1. 现有VIO方法在长期定位中存在精度下降问题,而VIR融合方法对锚点部署要求高,且难以处理异步多传感器数据。
  2. 提出一种基于B样条的连续时间状态估计方法,利用VIO先验和UWB测量构建虚拟锚点,并进行异常值剔除,提高定位精度。
  3. 通过公共数据集和真实实验验证了该方法的有效性,表明其在实际应用中具有潜力,能够提升定位精度和轨迹一致性。

📝 摘要(中文)

视觉惯性里程计(VIO)广泛应用于移动机器人定位,但其长期精度会在缺乏全局约束时下降。融合超宽带(UWB)等测距传感器可以减轻漂移;然而,高精度测距通常需要良好部署的锚点,这在狭窄或低功耗环境中难以保证。此外,大多数现有的视觉惯性测距(VIR)融合方法依赖于离散时间滤波或优化,难以平衡异步多传感器采样下的定位精度、轨迹一致性和融合效率。为了解决这些问题,我们提出了一种基于样条的连续时间状态估计方法用于VIR融合定位。在预处理阶段,VIO运动先验和UWB测距测量用于构建虚拟锚点并剔除异常值,从而缓解几何退化并提高测距可靠性。在估计阶段,使用B样条在连续时间内参数化姿态轨迹,同时将惯性、视觉和测距约束表示为滑动窗口图中的因子。然后联合优化样条控制点和一小组辅助参数,以获得连续时间轨迹估计。在公共数据集和真实世界实验中的评估证明了该方法的有效性和实际潜力。

🔬 方法详解

问题定义:论文旨在解决在室内环境下,利用视觉惯性里程计(VIO)和超宽带(UWB)测距进行融合定位时,由于UWB锚点稀疏、VIO长期漂移以及多传感器异步采样带来的精度、一致性和效率问题。现有方法通常依赖离散时间滤波或优化,难以有效处理这些挑战。

核心思路:论文的核心思路是利用连续时间的状态估计方法,将姿态轨迹参数化为B样条曲线,从而在连续时间内进行优化。通过VIO运动先验和UWB测距信息构建虚拟锚点,并进行异常值剔除,提高测距数据的可靠性,缓解几何退化问题。

技术框架:整体框架包含预处理和估计两个阶段。预处理阶段利用VIO和UWB数据构建虚拟锚点并剔除异常值。估计阶段,使用B样条参数化姿态轨迹,并将惯性、视觉和测距约束构建为滑动窗口图中的因子。最后,联合优化样条控制点和辅助参数,得到连续时间轨迹估计。

关键创新:最重要的创新点在于提出了基于B样条的连续时间状态估计方法,能够有效融合异步多传感器数据,并利用虚拟锚点提高定位精度和鲁棒性。与离散时间方法相比,该方法能够更好地处理传感器异步问题,并提供连续的轨迹估计。

关键设计:关键设计包括:1) 使用B样条对姿态轨迹进行参数化,实现连续时间的状态估计;2) 利用VIO运动先验和UWB测距信息构建虚拟锚点,增强几何约束;3) 在滑动窗口优化中,将惯性、视觉和测距约束表示为因子,并联合优化样条控制点和辅助参数。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文在公共数据集和真实世界实验中验证了所提出方法的有效性。实验结果表明,该方法能够有效提高定位精度和轨迹一致性,尤其是在UWB锚点稀疏的情况下,性能提升显著。具体性能数据未知,但实验结果明确表明了该方法优于现有方法。

🎯 应用场景

该研究成果可应用于室内移动机器人导航、无人机自主飞行、增强现实(AR)和虚拟现实(VR)等领域。尤其是在需要高精度定位且锚点部署受限的环境中,例如仓库、工厂、地下停车场等,具有重要的应用价值和商业前景。未来可进一步扩展到更大规模、更复杂的室内环境。

📄 摘要(原文)

Visual-inertial odometry (VIO) is widely used for mobile robot localization, but its long-term accuracy degrades without global constraints. Incorporating ranging sensors such as ultra-wideband (UWB) can mitigate drift; however, high-accuracy ranging usually requires well-deployed anchors, which is difficult to ensure in narrow or low-power environments. Moreover, most existing visual-inertial-ranging (VIR) fusion methods rely on discrete time-based filtering or optimization, making it difficult to balance positioning accuracy, trajectory consistency, and fusion efficiency under asynchronous multi-sensor sampling. To address these issues, we propose a spline-based continuous-time state estimation method for VIR fusion localization. In the preprocessing stage, VIO motion priors and UWB ranging measurements are used to construct virtual anchors and reject outliers, thereby alleviating geometric degeneration and improving range reliability. In the estimation stage, the pose trajectory is parameterized in continuous time using a B-spline, while inertial, visual, and ranging constraints are formulated as factors in a sliding-window graph. The spline control points, together with a small set of auxiliary parameters, are then jointly optimized to obtain a continuous-time trajectory estimate. Evaluations on public datasets and real-world experiments demonstrate the effectiveness and practical potential of the proposed approach.