PAINT: Partner-Agnostic Intent-Aware Cooperative Transport with Legged Robots

📄 arXiv: 2604.12852v1 📥 PDF

作者: Zhihao Cao, Tianxu An, Chenhao Li, Stelian Coros, Marco Hutter

分类: cs.RO

发布日期: 2026-04-14


💡 一句话要点

PAINT:基于腿式机器人的无需伙伴信息的意图感知协同运输框架

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture)

关键词: 协同运输 腿式机器人 意图感知 本体感受 分层学习

📋 核心要点

  1. 现有协同运输方法难以在复杂环境中准确捕捉和建模交互信号,导致意图推断困难。
  2. PAINT框架通过分层学习,将意图理解与地形鲁棒运动解耦,仅依赖本体感受信息推断伙伴意图。
  3. 实验表明,PAINT在不同地形、载荷和机器人伙伴间表现出良好的协同运输能力,并可扩展至多机器人系统。

📝 摘要(中文)

协同运输要求机器人通过物理交互推断伙伴的意图,同时保持稳定的运动操作。在复杂环境中,交互信号难以捕捉和建模,这带来了挑战。本文提出了PAINT,一个轻量级且高效的分层学习框架,用于无需伙伴信息的意图感知协同腿式运输,该框架直接从本体感受反馈中推断伙伴意图。PAINT将意图理解与地形鲁棒的运动解耦:高层策略使用意图估计器和师生训练方案推断伙伴交互力,而低层运动骨干确保鲁棒的执行。这实现了轻量级部署,无需外部力/力矩传感或有效载荷跟踪。广泛的仿真和真实世界实验证明了在不同地形、有效载荷和伙伴之间的顺应性协同运输。此外,我们表明PAINT自然地扩展到分散式多机器人运输,并通过交换底层运动骨干在机器人形态之间转移。我们的结果表明,有效载荷耦合交互中的本体感受信号为无需伙伴信息的意图感知协同运输提供了一个可扩展的接口。

🔬 方法详解

问题定义:论文旨在解决腿式机器人协同运输中,如何在复杂环境中准确推断伙伴意图并实现稳定运输的问题。现有方法依赖外部传感器或复杂的模型,难以适应不同伙伴和地形,且计算成本高昂。

核心思路:论文的核心在于利用本体感受信息(如关节角度、电机力矩等)来推断伙伴的交互力,从而理解其意图。通过解耦意图理解和运动控制,可以分别优化,提高鲁棒性和泛化能力。无需依赖外部传感器,降低了系统复杂度和成本。

技术框架:PAINT框架包含两个主要模块:高层意图策略和低层运动骨干。高层策略使用意图估计器,通过师生学习方案,从本体感受信息中估计伙伴的交互力。低层运动骨干负责根据高层策略的指令,实现鲁棒的运动控制,适应不同的地形和载荷。整体流程是:机器人通过本体感受器感知自身状态,高层策略推断伙伴意图,低层运动骨干执行相应的运动指令。

关键创新:PAINT的关键创新在于:1) 提出了一种无需伙伴信息的意图感知方法,仅依赖本体感受信息即可实现协同运输;2) 将意图理解与运动控制解耦,提高了系统的鲁棒性和泛化能力;3) 采用师生学习方案,提高了意图估计器的准确性和效率。与现有方法相比,PAINT无需外部传感器,降低了系统复杂度和成本,且能够适应不同的伙伴和地形。

关键设计:意图估计器采用神经网络结构,输入为机器人的本体感受信息,输出为伙伴的交互力。师生学习方案中,教师网络使用真实的交互力数据进行训练,学生网络则仅使用本体感受信息进行训练,并通过模仿教师网络的输出来学习意图估计。损失函数包括交互力估计误差和运动控制误差。低层运动骨干可以使用不同的运动控制器,如模型预测控制(MPC)或强化学习策略。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,PAINT框架在仿真和真实环境中均能实现鲁棒的协同运输。在不同地形和载荷下,机器人能够稳定地与伙伴协同搬运物体。与传统的基于力/力矩传感器的协同运输方法相比,PAINT在无需外部传感器的情况下,也能达到相近甚至更好的性能。此外,实验还证明了PAINT框架具有良好的可扩展性,可以应用于多机器人协同运输,并且可以通过更换底层运动骨干,实现跨机器人平台的迁移。

🎯 应用场景

PAINT框架可应用于物流运输、建筑施工、灾害救援等领域,实现多机器人协同搬运重物或在复杂地形下运输物资。该方法无需对机器人进行特殊改造,仅需利用其自身的传感器信息,即可实现智能协同,具有广泛的应用前景和实际价值。未来可进一步研究如何将PAINT应用于更复杂的任务和环境,例如多机器人协同操作和人机协作。

📄 摘要(原文)

Collaborative transport requires robots to infer partner intent through physical interaction while maintaining stable loco-manipulation. This becomes particularly challenging in complex environments, where interaction signals are difficult to capture and model. We present PAINT, a lightweight yet efficient hierarchical learning framework for partner-agonistic intent-aware collaborative legged transport that infers partner intent directly from proprioceptive feedback. PAINT decouples intent understanding from terrain-robust locomotion: A high-level policy infers the partner interaction wrench using an intent estimator and a teacher-student training scheme, while a low-level locomotion backbone ensures robust execution. This enables lightweight deployment without external force-torque sensing or payload tracking. Extensive simulation and real-world experiments demonstrate compliant cooperative transport across diverse terrains, payloads, and partners. Furthermore, we show that PAINT naturally scales to decentralized multi-robot transport and transfers across robot embodiments by swapping the underlying locomotion backbone. Our results suggest that proprioceptive signals in payload-coupled interaction provide a scalable interface for partner-agnostic intent-aware collaborative transport.