PRIOR: Perceptive Learning for Humanoid Locomotion with Reference Gait Priors

📄 arXiv: 2603.18979v1 📥 PDF

作者: Chenxi Han, Shilu He, Yi Cheng, Linqi Ye, Houde Liu

分类: cs.RO, cs.AI

发布日期: 2026-03-19

备注: https://prior-iros2026.github.io/


💡 一句话要点

PRIOR:基于参考步态先验的人形机器人感知运动学习框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知与语义 (Perception & Semantics) 支柱六:视频提取与匹配 (Video Extraction)

关键词: 人形机器人 运动控制 强化学习 深度学习 地形穿越

📋 核心要点

  1. 现有方法在复杂地形上训练具有自然步态的人形机器人运动策略面临挑战,通常需要多阶段训练流程、对抗性目标或大量的真实世界校准。
  2. PRIOR框架通过参数化步态生成器提供稳定的参考轨迹,利用GRU状态估计器从深度图像中推断地形几何信息,并设计地形自适应的足迹奖励。
  3. 实验表明,PRIOR框架的各个组件都带来了性能提升,最终实现了在各种复杂地形上100%的穿越成功率,并开源了完整框架。

📝 摘要(中文)

本文提出了一种高效且可复现的框架PRIOR,用于在Isaac Lab中实现具有类人步态的鲁棒地形穿越。该框架设计简洁有效:(i) 参数化步态生成器,提供从运动捕捉数据导出的稳定参考轨迹,无需对抗训练;(ii) 基于GRU的状态估计器,通过自监督高度图重建,直接从以自我为中心的深度图像中推断地形几何信息;(iii) 地形自适应的足迹奖励,引导足部放置到可穿越区域。通过对深度图像分辨率权衡的系统分析,确定了在实时约束下最大化地形保真度的配置,从而在不降低穿越性能的情况下显著降低了感知开销。在包括楼梯、箱子和间隙等不同难度的地形上的综合实验表明,每个组件都产生了互补且必要的性能提升,完整框架实现了100%的穿越成功率。我们将开源完整的PRIOR框架,包括训练流程、参数化步态生成器和评估基准,作为Isaac Lab上人形机器人运动研究的可复现基础。

🔬 方法详解

问题定义:现有方法在复杂地形上训练人形机器人运动策略时,通常需要复杂的多阶段训练流程、对抗性目标,或者大量的真实世界校准,这使得训练过程复杂且难以复现。此外,如何有效地从感知数据中提取地形信息,并将其融入到运动控制中也是一个挑战。

核心思路:PRIOR框架的核心思路是利用参考步态先验知识,结合深度图像感知,通过强化学习训练出鲁棒的运动策略。通过参数化步态生成器提供稳定的参考轨迹,避免了对抗训练的需要。利用自监督学习从深度图像中重建高度图,从而提取地形信息。最后,设计地形自适应的足迹奖励,引导机器人选择可穿越的区域。

技术框架:PRIOR框架主要包含三个模块:(1) 参数化步态生成器:从运动捕捉数据中学习得到参数化的步态模型,生成稳定的参考轨迹。(2) 基于GRU的状态估计器:利用GRU网络从以自我为中心的深度图像中重建高度图,从而估计地形几何信息。(3) 强化学习控制器:利用强化学习算法训练控制器,使其能够根据状态估计和参考轨迹,控制机器人的运动。整体流程是,状态估计器从深度图像中提取地形信息,然后强化学习控制器根据地形信息和参考轨迹,控制机器人的运动。

关键创新:PRIOR框架的关键创新在于将参考步态先验知识、深度图像感知和强化学习控制相结合,从而实现了鲁棒的复杂地形穿越。与现有方法相比,PRIOR框架不需要对抗训练,也不需要大量的真实世界校准。此外,PRIOR框架利用自监督学习从深度图像中重建高度图,从而有效地提取地形信息。

关键设计:在参数化步态生成器中,使用了从运动捕捉数据中学习得到的参数化模型。在状态估计器中,使用了GRU网络来处理深度图像序列,并利用自监督学习来重建高度图。在强化学习控制器中,使用了PPO算法,并设计了地形自适应的足迹奖励,引导机器人选择可穿越的区域。深度图像分辨率的选择是一个关键参数,需要在地形保真度和实时性之间进行权衡。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,PRIOR框架在包括楼梯、箱子和间隙等不同难度的地形上实现了100%的穿越成功率。通过对深度图像分辨率的系统分析,确定了在实时约束下最大化地形保真度的配置,从而在不降低穿越性能的情况下显著降低了感知开销。每个组件都产生了互补且必要的性能提升。

🎯 应用场景

该研究成果可应用于搜救机器人、物流机器人、巡检机器人等领域,使其能够在复杂地形环境下稳定行走和执行任务。通过结合视觉感知和运动控制,提升机器人在未知环境下的适应性和自主性,具有重要的实际应用价值和广阔的应用前景。

📄 摘要(原文)

Training perceptive humanoid locomotion policies that traverse complex terrains with natural gaits remains an open challenge, typically demanding multi-stage training pipelines, adversarial objectives, or extensive real-world calibration. We present PRIOR, an efficient and reproducible framework built on Isaac Lab that achieves robust terrain traversal with human-like gaits through a simple yet effective design: (i) a parametric gait generator that supplies stable reference trajectories derived from motion capture without adversarial training, (ii) a GRU-based state estimator that infers terrain geometry directly from egocentric depth images via self-supervised heightmap reconstruction, and (iii) terrain-adaptive footstep rewards that guide foot placement toward traversable regions. Through systematic analysis of depth image resolution trade-offs, we identify configurations that maximize terrain fidelity under real-time constraints, substantially reducing perceptual overhead without degrading traversal performance. Comprehensive experiments across terrains of varying difficulty-including stairs, boxes, and gaps-demonstrate that each component yields complementary and essential performance gains, with the full framework achieving a 100% traversal success rate. We will open-source the complete PRIOR framework, including the training pipeline, parametric gait generator, and evaluation benchmarks, to serve as a reproducible foundation for humanoid locomotion research on Isaac Lab.