SCREP: Scene Coordinate Regression and Evidential Learning-based Perception-Aware Trajectory Generation

📄 arXiv: 2507.07467v1 📥 PDF

作者: Juyeop Han, Lukas Lao Beyer, Guilherme V. Cavalheiro, Sertac Karaman

分类: cs.RO

发布日期: 2025-07-10

备注: 8 pages, 7 figures, 3 tables


💡 一句话要点

提出基于场景坐标回归和证据学习的感知自主轨迹生成方法

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 自主导航 场景坐标回归 证据学习 轨迹优化 无人机 视觉定位 后退视界控制

📋 核心要点

  1. 视觉惯性里程计在无GPS环境中存在累积漂移问题,而场景坐标回归能提供高精度绝对位姿,但如何有效利用是挑战。
  2. 论文提出一种感知自主框架,结合证据学习的场景坐标回归位姿估计器和后退视界轨迹优化器,引导相机关注可靠的场景坐标。
  3. 仿真结果表明,该方法显著降低了平移和旋转误差,硬件在环实验验证了框架的实际可行性。

📝 摘要(中文)

在无GPS的室内环境中,自主飞行需要轨迹能够保证视觉定位误差在各种任务中都受到严格限制。视觉惯性里程计(VIO)会随时间累积漂移,而场景坐标回归(SCR)可以产生无漂移、高精度的绝对位姿估计。本文提出了一种感知自主框架,该框架将基于证据学习的SCR位姿估计器与后退视界轨迹优化器相结合。优化器引导机载相机朝向不确定性预测可靠场景坐标的像素,而固定滞后平滑器将低速率SCR流与高速率IMU数据融合,以实时闭合感知控制回路。在仿真中,相对于偏航固定和前瞻基线,我们的规划器分别将平移(旋转)平均误差降低了54%/15%(40%/31%)。此外,硬件在环实验验证了我们提出的框架的可行性。

🔬 方法详解

问题定义:在无GPS的室内环境中,无人机自主飞行依赖视觉定位,但视觉惯性里程计(VIO)会随时间累积漂移,导致定位精度下降。场景坐标回归(SCR)虽然可以提供无漂移的绝对位姿估计,但其精度受图像质量和特征点选择的影响,如何有效利用SCR信息,并将其与VIO融合,以实现高精度、鲁棒的自主导航是关键问题。现有方法通常采用固定轨迹或简单的前瞻策略,无法充分利用SCR的感知信息来指导轨迹规划,从而限制了定位精度和导航性能。

核心思路:论文的核心思路是设计一个感知自主的轨迹生成框架,该框架能够根据场景坐标回归的不确定性,主动引导无人机朝向具有高精度场景坐标的区域飞行,从而提高定位精度。通过将基于证据学习的SCR位姿估计器与后退视界轨迹优化器相结合,实现感知与控制的闭环。证据学习用于评估SCR的可靠性,并指导轨迹优化器选择更可靠的特征点。

技术框架:该框架包含以下几个主要模块:1) 基于证据学习的场景坐标回归位姿估计器:用于估计无人机的位姿,并提供不确定性信息。2) 后退视界轨迹优化器:根据位姿估计和不确定性信息,生成优化轨迹,引导无人机朝向具有高精度场景坐标的区域飞行。3) 固定滞后平滑器:将低速率的SCR位姿估计与高速率的IMU数据融合,提供更精确的位姿估计,用于控制。整个框架采用闭环控制,通过不断优化轨迹,提高定位精度和导航性能。

关键创新:论文的关键创新在于将证据学习引入到场景坐标回归中,用于评估SCR的可靠性,并将其用于指导轨迹优化。这种感知自主的轨迹生成方法能够充分利用SCR的感知信息,主动引导无人机朝向具有高精度场景坐标的区域飞行,从而提高定位精度。此外,将低速率的SCR位姿估计与高速率的IMU数据融合,实现了实时闭环控制。

关键设计:在基于证据学习的场景坐标回归位姿估计器中,使用了Dempster-Shafer证据理论来评估SCR的可靠性。轨迹优化器采用后退视界控制(MPC),目标函数包括轨迹平滑性、避障和感知质量。感知质量通过引导无人机朝向具有低不确定性的场景坐标的区域来提高。固定滞后平滑器采用扩展卡尔曼滤波(EKF)将SCR和IMU数据融合。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

仿真实验结果表明,相对于偏航固定和前瞻基线,该方法分别将平移平均误差降低了54%和15%,旋转平均误差降低了40%和31%。硬件在环实验验证了该框架在实际应用中的可行性。这些结果表明,该方法能够显著提高无人机在无GPS环境下的定位精度和导航性能。

🎯 应用场景

该研究成果可应用于室内无人机自主导航、机器人定位与建图、增强现实等领域。在仓库巡检、室内安防、灾后救援等场景中,无人机需要在无GPS环境下进行自主飞行,该方法可以提高无人机的定位精度和导航可靠性,从而实现更高效的任务执行。未来,该技术有望应用于更复杂的环境和任务中,例如多无人机协同、人机协作等。

📄 摘要(原文)

Autonomous flight in GPS denied indoor spaces requires trajectories that keep visual localization error tightly bounded across varied missions. Whereas visual inertial odometry (VIO) accumulates drift over time, scene coordinate regression (SCR) yields drift-free, high accuracy absolute pose estimation. We present a perception-aware framework that couples an evidential learning-based SCR pose estimator with a receding horizon trajectory optimizer. The optimizer steers the onboard camera toward pixels whose uncertainty predicts reliable scene coordinates, while a fixed-lag smoother fuses the low rate SCR stream with high rate IMU data to close the perception control loop in real time. In simulation, our planner reduces translation (rotation) mean error by 54% / 15% (40% / 31%) relative to yaw fixed and forward-looking baselines, respectively. Moreover, hardware in the loop experiment validates the feasibility of our proposed framework.