SCREP: Scene Coordinate Regression and Evidential Learning-based Perception-Aware Trajectory Generation
作者: Juyeop Han, Lukas Lao Beyer, Guilherme V. Cavalheiro, Sertac Karaman
分类: cs.RO
发布日期: 2026-02-28
💡 一句话要点
提出基于场景坐标回归和证据学习的感知自主轨迹生成方法,解决GPS拒止环境下的定位问题。
🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction)
关键词: 场景坐标回归 证据学习 自主导航 轨迹规划 无人机
📋 核心要点
- 在无GPS室内环境中,自主飞行需要精确控制视觉定位误差,传统基于地图的视觉定位方法存在计算量大和存储扩展性问题。
- 本文提出一种基于证据学习的场景坐标回归位姿估计器,并结合后退视界轨迹优化器,引导相机朝向可靠场景坐标。
- 仿真实验表明,该规划器相比基线方法,平移和旋转RMSE分别降低至少4.9%和30.8%,硬件在环实验验证了其可行性。
📝 摘要(中文)
本文提出了一种感知自主轨迹规划器,用于解决GPS拒止的室内环境中的自主飞行问题。该规划器将基于证据学习的场景坐标回归(SCR)位姿估计器与后退视界轨迹优化器相结合。优化器引导机载相机朝向具有低不确定性的可靠场景坐标,而固定滞后平滑器融合低速率SCR位姿估计和高速率IMU数据,以提供高质量、高频率的位姿估计。仿真结果表明,相对于基线方法,本文提出的规划器在平移和旋转RMSE方面分别降低了至少4.9%和30.8%。硬件在环实验验证了该轨迹规划器在接近真实部署条件下的可行性。
🔬 方法详解
问题定义:在GPS拒止的室内环境中,无人机自主导航面临着精确位姿估计的挑战。传统的基于特征匹配的视觉定位方法需要大量的计算资源进行地图重建,并且在大规模环境中存在特征存储的扩展性问题。因此,如何在计算资源有限的机载平台上实现高精度、低延迟的位姿估计,是本文要解决的关键问题。
核心思路:本文的核心思路是利用场景坐标回归(SCR)直接预测每个像素的3D坐标,从而实现绝对位姿估计。同时,引入证据学习来量化SCR预测的不确定性,并将其融入到轨迹优化中,引导无人机朝向更可靠的场景区域。通过融合低速率但包含场景信息的SCR位姿估计和高速率但缺乏全局信息的IMU数据,实现高精度、高频率的位姿估计。
技术框架:该方法主要包含三个模块:1) 基于证据学习的场景坐标回归位姿估计器:利用深度学习模型预测每个像素的3D场景坐标及其不确定性;2) 后退视界轨迹优化器:根据SCR位姿估计的不确定性,优化无人机的轨迹,使其朝向更可靠的场景区域;3) 固定滞后平滑器:融合低速率的SCR位姿估计和高速率的IMU数据,提供高精度、高频率的位姿估计。整个流程是,首先利用SCR位姿估计器和IMU数据初始化位姿,然后轨迹优化器根据位姿估计的不确定性调整轨迹,最后固定滞后平滑器融合SCR和IMU数据,输出最终的位姿估计。
关键创新:本文的关键创新在于将证据学习引入到场景坐标回归中,从而能够量化SCR预测的不确定性。这种不确定性信息被用于指导轨迹优化,使得无人机能够主动地选择更可靠的观测区域,从而提高位姿估计的精度和鲁棒性。此外,将SCR位姿估计与IMU数据进行融合,利用各自的优势,实现了高精度、高频率的位姿估计。
关键设计:在SCR位姿估计器中,使用了深度神经网络来预测每个像素的3D场景坐标和证据值。证据值被用于计算不确定性,并作为轨迹优化器的输入。轨迹优化器采用后退视界控制( receding horizon control)框架,目标函数包括轨迹平滑性、与障碍物的距离以及位姿估计的不确定性。固定滞后平滑器采用扩展卡尔曼滤波(EKF)算法,将SCR位姿估计和IMU数据进行融合。具体参数设置(如网络结构、损失函数、优化器参数等)未在摘要中详细说明,属于未知信息。
🖼️ 关键图片
📊 实验亮点
仿真实验结果表明,本文提出的轨迹规划器相对于基线方法,在平移和旋转RMSE方面分别降低了至少4.9%和30.8%。这一结果表明,通过将证据学习引入到场景坐标回归中,并将其用于指导轨迹优化,可以显著提高无人机在GPS拒止环境中的定位精度。硬件在环实验进一步验证了该方法在接近真实部署条件下的可行性。
🎯 应用场景
该研究成果可应用于GPS拒止的室内环境中的无人机自主导航,例如仓库巡检、室内测绘、灾后搜救等。通过提高无人机在复杂环境中的定位精度和鲁棒性,可以扩展无人机的应用范围,并提升其在实际场景中的实用价值。未来,该方法有望应用于其他类型的机器人,例如移动机器人、水下机器人等。
📄 摘要(原文)
Autonomous flight in GPS-denied indoor spaces requires trajectories that keep visual-localization error tightly bounded across varied missions. Map-based visual localization methods such as feature matching require computationally intensive map reconstruction and have feature-storage scalability issues, especially for large environments. Scene coordinate regression (SCR) provides an efficient learning-based alternative that directly predicts3D coordinates for every pixel, enabling absolute pose estimation with significant potential for onboard roboticsapplications. We present a perception-aware trajectory planner that couples an evidential learning-based SCR poseestimator with a receding-horizon trajectory optimizer. The optimizer steers the onboard camera toward reliablescene coordinates with low uncertainty, while a fixed-lag smoother fuses the low-rate SCR pose estimates with high-rate IMU data to provide a high-quality, high-rate pose estimate. In simulation, our planner reduces translationand rotation RMSE by at least 4.9% and 30.8% relative to baselines, respectively. Hardware-in-the-loop experiments validate the feasibility of our proposed trajectory planner under close-to-real deployment conditions.