MUSE: A Real-Time Multi-Sensor State Estimator for Quadruped Robots

📄 arXiv: 2503.12101v2 📥 PDF

作者: Ylenia Nisticò, João Carlos Virgolino Soares, Lorenzo Amatucci, Geoff Fink, Claudio Semini

分类: cs.RO, eess.SP

发布日期: 2025-03-15 (更新: 2025-03-27)

备注: Accepted for publication in IEEE Robotics and Automation Letters


💡 一句话要点

MUSE:四足机器人实时多传感器融合状态估计器,提升复杂地形导航性能

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 四足机器人 状态估计 多传感器融合 实时导航 扩展卡尔曼滤波

📋 核心要点

  1. 现有四足机器人状态估计方法在复杂地形(如湿滑地面)中精度不足,影响导航控制。
  2. MUSE融合IMU、编码器、相机和激光雷达等多传感器数据,提供更鲁棒和准确的状态估计。
  3. 实验表明,MUSE在平移和旋转误差上均优于现有方法,并在真实机器人上成功闭环控制。

📝 摘要(中文)

本文提出了一种创新的状态估计器MUSE(MUlti-sensor State Estimator),旨在提高四足机器人导航中状态估计的准确性和实时性。MUSE建立在我们之前工作的基础上,融合了来自多种板载传感器的数据,包括IMU、编码器、相机和激光雷达,从而提供全面可靠的机器人姿态和运动估计,即使在湿滑场景中也能正常工作。我们在Unitree Aliengo机器人上测试了MUSE,成功地在包括湿滑和不平坦地形等困难场景中闭环了运动控制。与Pronto和VILENS相比,平移误差分别降低了67.6%和26.7%。此外,MUSE在旋转误差和频率方面优于激光雷达惯性里程计系统DLIO,而MUSE的本体感知版本(P-MUSE)优于TSIF,绝对轨迹误差(ATE)降低了45.9%。

🔬 方法详解

问题定义:四足机器人在复杂地形(例如湿滑或不平坦的地面)中进行导航时,准确的状态估计至关重要。现有的状态估计方法在这些具有挑战性的环境中往往表现不佳,导致控制性能下降甚至失败。这些方法可能无法充分利用多种传感器的数据,或者对传感器噪声和不确定性建模不足。

核心思路:MUSE的核心思路是利用多传感器融合的优势,通过整合来自IMU、编码器、相机和激光雷达等多种传感器的数据,提供更全面、更鲁棒的状态估计。这种多模态融合能够弥补单一传感器的局限性,提高在复杂环境中的适应性。通过仔细设计融合算法,可以有效地抑制噪声和不确定性,从而提高状态估计的精度和可靠性。

技术框架:MUSE的整体框架包含多个模块,包括传感器数据预处理、传感器融合、状态估计和运动预测。首先,对来自各个传感器的数据进行预处理,例如滤波和校准。然后,使用扩展卡尔曼滤波器(EKF)或类似的优化方法将这些数据融合在一起,以估计机器人的姿态、速度和加速度。最后,使用状态估计结果进行运动预测,为控制提供参考。

关键创新:MUSE的关键创新在于其多传感器融合策略,能够有效地利用各种传感器的优势,并在复杂环境中实现高精度的状态估计。此外,MUSE还针对四足机器人的特殊运动学和动力学特性进行了优化,从而提高了状态估计的准确性和鲁棒性。

关键设计:MUSE的关键设计包括传感器噪声模型的选择、融合算法的设计以及参数的优化。例如,可以使用高斯噪声模型来描述传感器噪声,并使用扩展卡尔曼滤波器(EKF)进行状态估计。此外,还可以使用滑动窗口优化等技术来提高状态估计的精度和鲁棒性。损失函数的设计也至关重要,需要平衡不同传感器数据之间的权重,并考虑机器人的运动学和动力学约束。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

MUSE在Unitree Aliengo机器人上进行了实验验证,结果表明,与Pronto和VILENS相比,MUSE的平移误差分别降低了67.6%和26.7%。此外,MUSE在旋转误差和频率方面优于激光雷达惯性里程计系统DLIO。MUSE的本体感知版本(P-MUSE)优于TSIF,绝对轨迹误差(ATE)降低了45.9%。这些结果表明,MUSE在复杂地形中具有显著的性能优势。

🎯 应用场景

MUSE可广泛应用于四足机器人的自主导航、搜索救援、地形勘探、物流运输等领域。其高精度和实时性使其能够在复杂和动态环境中安全可靠地运行。未来,MUSE有望进一步扩展到其他类型的机器人平台,并与其他感知和控制算法集成,实现更高级别的自主能力。

📄 摘要(原文)

This paper introduces an innovative state estimator, MUSE (MUlti-sensor State Estimator), designed to enhance state estimation's accuracy and real-time performance in quadruped robot navigation. The proposed state estimator builds upon our previous work presented in [1]. It integrates data from a range of onboard sensors, including IMUs, encoders, cameras, and LiDARs, to deliver a comprehensive and reliable estimation of the robot's pose and motion, even in slippery scenarios. We tested MUSE on a Unitree Aliengo robot, successfully closing the locomotion control loop in difficult scenarios, including slippery and uneven terrain. Benchmarking against Pronto [2] and VILENS [3] showed 67.6% and 26.7% reductions in translational errors, respectively. Additionally, MUSE outperformed DLIO [4], a LiDAR-inertial odometry system in rotational errors and frequency, while the proprioceptive version of MUSE (P-MUSE) outperformed TSIF [5], with a 45.9% reduction in absolute trajectory error (ATE).