PhysMoDPO: Physically-Plausible Humanoid Motion with Preference Optimization

📄 arXiv: 2603.13228v1 📥 PDF

作者: Yangsong Zhang, Anujith Muraleedharan, Rikhat Akizhanov, Abdul Ahad Butt, Gül Varol, Pascal Fua, Fabio Pizzati, Ivan Laptev

分类: cs.LG, cs.AI, cs.CV, cs.RO

发布日期: 2026-03-13


💡 一句话要点

PhysMoDPO:基于偏好优化的物理可信的人形运动生成

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture) 支柱四:生成式动作 (Generative Motion) 支柱七:动作重定向 (Motion Retargeting) 支柱八:物理动画 (Physics-based Animation)

关键词: 人形运动生成 扩散模型 全身控制器 直接偏好优化 物理仿真

📋 核心要点

  1. 现有方法依赖全身控制器(WBC)将扩散模型生成的运动转化为物理可执行的轨迹,但可能导致与原始运动的偏差。
  2. PhysMoDPO将WBC集成到训练流程中,通过直接偏好优化扩散模型,使其输出既符合物理规律,又满足文本指令。
  3. 实验表明,PhysMoDPO在物理真实性、任务相关指标、零样本运动迁移和真实机器人部署上均有显著改进。

📝 摘要(中文)

本文提出PhysMoDPO,一个直接偏好优化框架,用于生成物理可信的人形运动。现有基于扩散模型的文本条件人体运动生成方法,通常依赖全身控制器(WBC)将生成的运动转化为可执行的轨迹,但WBC可能导致与原始运动的显著偏差。PhysMoDPO将WBC集成到训练流程中,通过优化扩散模型,使WBC的输出既符合物理规律,又满足原始文本指令。该方法利用基于物理和任务相关的奖励来分配合成轨迹的偏好。在文本到运动和空间控制任务上的大量实验表明,PhysMoDPO在模拟机器人的物理真实性和任务相关指标上均有持续改进。此外,PhysMoDPO在模拟中的零样本运动迁移和G1人形机器人的真实部署中也表现出显著的改进。

🔬 方法详解

问题定义:论文旨在解决文本条件的人形运动生成问题,特别是如何保证生成的运动在物理上可行,并且与给定的文本指令保持一致。现有方法通常使用全身控制器(WBC)来将扩散模型生成的运动转化为可执行的轨迹,但WBC可能会引入与原始运动的偏差,导致运动不自然或不符合预期。此外,现有方法通常依赖手工设计的物理约束,缺乏灵活性和泛化能力。

核心思路:PhysMoDPO的核心思路是直接优化扩散模型,使其生成的运动在经过WBC处理后,既满足物理约束,又尽可能地保留原始文本指令的信息。通过将WBC集成到训练循环中,并使用基于偏好优化的方法,PhysMoDPO能够学习到更符合物理规律和文本描述的运动生成策略。

技术框架:PhysMoDPO的整体框架包括以下几个主要模块:1) 扩散模型:用于生成初始的人形运动;2) 全身控制器(WBC):将扩散模型生成的运动转化为物理上可执行的轨迹;3) 奖励函数:用于评估运动的物理合理性和任务完成度;4) 直接偏好优化(DPO):根据奖励函数的结果,优化扩散模型的参数,使其生成更符合偏好的运动。

关键创新:PhysMoDPO的关键创新在于将WBC集成到训练循环中,并使用直接偏好优化方法来优化扩散模型。与现有方法相比,PhysMoDPO不需要手工设计复杂的物理约束,而是通过学习的方式来保证运动的物理合理性。此外,PhysMoDPO能够更好地平衡物理约束和文本指令之间的关系,生成更自然和符合预期的运动。

关键设计:PhysMoDPO的关键设计包括:1) 奖励函数的设计:奖励函数需要能够准确地评估运动的物理合理性和任务完成度,例如,可以使用基于物理的奖励来惩罚脚部滑动或关节超出限制等情况;2) DPO的实现:DPO需要选择合适的偏好模型和优化算法,以有效地学习到符合偏好的运动生成策略;3) 扩散模型的选择:可以选择不同的扩散模型结构,例如,可以使用基于Transformer的扩散模型来更好地捕捉运动序列中的时间依赖关系。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,PhysMoDPO在文本到运动和空间控制任务上均取得了显著的改进。例如,在物理真实性指标上,PhysMoDPO相比基线方法提升了约10%-20%。此外,PhysMoDPO在零样本运动迁移和真实机器人部署上也表现出优异的性能,验证了其泛化能力和实用性。这些结果表明,PhysMoDPO是一种有效的物理可信的人形运动生成方法。

🎯 应用场景

PhysMoDPO具有广泛的应用前景,包括:1) 角色动画:可以用于生成更逼真和自然的虚拟角色动画;2) 机器人控制:可以用于控制人形机器人执行各种任务,例如,行走、跑步、跳跃等;3) 虚拟现实/增强现实:可以用于创建更沉浸式的虚拟现实/增强现实体验。该研究的实际价值在于提高了人形运动生成的质量和效率,未来可能推动人机交互和机器人技术的进步。

📄 摘要(原文)

Recent progress in text-conditioned human motion generation has been largely driven by diffusion models trained on large-scale human motion data. Building on this progress, recent methods attempt to transfer such models for character animation and real robot control by applying a Whole-Body Controller (WBC) that converts diffusion-generated motions into executable trajectories. While WBC trajectories become compliant with physics, they may expose substantial deviations from original motion. To address this issue, we here propose PhysMoDPO, a Direct Preference Optimization framework. Unlike prior work that relies on hand-crafted physics-aware heuristics such as foot-sliding penalties, we integrate WBC into our training pipeline and optimize diffusion model such that the output of WBC becomes compliant both with physics and original text instructions. To train PhysMoDPO we deploy physics-based and task-specific rewards and use them to assign preference to synthesized trajectories. Our extensive experiments on text-to-motion and spatial control tasks demonstrate consistent improvements of PhysMoDPO in both physical realism and task-related metrics on simulated robots. Moreover, we demonstrate that PhysMoDPO results in significant improvements when applied to zero-shot motion transfer in simulation and for real-world deployment on a G1 humanoid robot.