Neural Assistive Impulses: Synthesizing Exaggerated Motions for Physics-based Characters

📄 arXiv: 2604.05394v1 📥 PDF

作者: Zhiquan Wang, Bedrich Benes

分类: cs.AI, cs.GR

发布日期: 2026-04-07


💡 一句话要点

提出辅助冲量神经控制,实现物理角色动画中夸张动作的合成

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱四:生成式动作 (Generative Motion) 支柱八:物理动画 (Physics-based Animation)

关键词: 物理角色动画 深度强化学习 辅助冲量控制 逆动力学 神经策略

📋 核心要点

  1. 现有基于物理的动画方法难以生成违反物理定律的夸张动作,如瞬间冲刺和空中变向。
  2. 论文提出辅助冲量神经控制,在冲量空间而非力空间施加辅助,保证数值稳定性。
  3. 该方法将辅助信号分解为逆动力学高频分量和神经策略学习的低频残差,实现敏捷运动跟踪。

📝 摘要(中文)

基于物理的角色动画已成为合成逼真、物理上合理运动的基本方法。虽然当前的数据驱动深度强化学习(DRL)方法可以合成复杂的技能,但它们难以重现夸张的、风格化的运动,例如瞬间冲刺或空中轨迹变化,这些运动在动画中是必需的,但违反了标准的物理定律。主要的限制来自于将角色建模为欠驱动的浮动基座系统,其中内部关节扭矩和动量守恒严格控制运动。直接尝试通过外部力来强制执行此类运动通常会导致训练不稳定,因为速度不连续会产生稀疏的、高幅度的力峰值,从而阻止策略收敛。我们提出辅助冲量神经控制,该框架在冲量空间而非力空间中重新构建外部辅助,以确保数值稳定性。我们将辅助信号分解为来自逆动力学的解析高频分量和由混合神经策略控制的学习低频残差校正。我们证明了我们的方法能够稳健地跟踪高度敏捷的、动态上不可行的动作,而这些动作以前对于基于物理的方法来说是棘手的。

🔬 方法详解

问题定义:现有基于物理的角色动画方法,特别是依赖深度强化学习的方法,在生成夸张的、违反物理定律的动作时面临挑战。这些方法通常将角色建模为欠驱动的浮动基座系统,其运动受到内部关节扭矩和动量守恒的严格约束。直接施加外部力来引导角色执行这些动作会导致训练不稳定,因为速度的不连续性会产生高幅度的力峰值,从而阻碍策略的收敛。

核心思路:论文的核心思路是将外部辅助从力空间转换到冲量空间。冲量是力的时间积分,使用冲量可以避免速度突变带来的数值不稳定问题。此外,论文将辅助信号分解为两个部分:一个基于逆动力学计算的高频分量,用于快速响应;另一个由神经策略学习的低频残差校正,用于精细调整。

技术框架:该方法的技术框架包含以下几个主要模块:1) 逆动力学模块:根据目标运动计算所需的高频冲量。2) 神经策略模块:学习低频残差冲量,用于校正逆动力学模块的不足。3) 物理引擎:模拟角色的运动,并根据关节扭矩和外部冲量更新角色的状态。4) 奖励函数:引导神经策略学习,鼓励角色跟踪目标运动并保持平衡。

关键创新:该方法最重要的创新点在于将外部辅助从力空间转换到冲量空间,并将其分解为高频和低频两个部分。这种分解方式既保证了快速响应,又允许通过学习进行精细调整。与现有方法相比,该方法能够更稳定地训练神经策略,并生成更逼真的夸张动作。

关键设计:论文的关键设计包括:1) 使用逆动力学计算高频冲量,确保快速响应。2) 使用混合神经策略学习低频残差冲量,该策略结合了前馈网络和循环神经网络,以捕捉运动的时间依赖性。3) 设计了合适的奖励函数,鼓励角色跟踪目标运动并保持平衡。4) 使用了特定的物理引擎参数,以确保模拟的稳定性和准确性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法能够稳健地跟踪高度敏捷的、动态上不可行的动作,例如瞬间冲刺和空中轨迹变化,而这些动作以前对于基于物理的方法来说是棘手的。与现有的基于力的方法相比,该方法能够更稳定地训练神经策略,并生成更逼真的夸张动作。具体性能数据未知。

🎯 应用场景

该研究成果可应用于游戏、电影等领域的角色动画制作,特别是需要角色执行高度敏捷、动态上不可行动作的场景。例如,可以用于制作超级英雄电影中角色的飞行、跳跃等动作,或者用于游戏角色中快速闪避、攻击等动作。该方法还可以应用于机器人控制领域,使机器人能够执行更复杂的任务。

📄 摘要(原文)

Physics-based character animation has become a fundamental approach for synthesizing realistic, physically plausible motions. While current data-driven deep reinforcement learning (DRL) methods can synthesize complex skills, they struggle to reproduce exaggerated, stylized motions, such as instantaneous dashes or mid-air trajectory changes, which are required in animation but violate standard physical laws. The primary limitation stems from modeling the character as an underactuated floating-base system, in which internal joint torques and momentum conservation strictly govern motion. Direct attempts to enforce such motions via external wrenches often lead to training instability, as velocity discontinuities produce sparse, high-magnitude force spikes that prevent policy convergence. We propose Assistive Impulse Neural Control, a framework that reformulates external assistance in impulse space rather than force space to ensure numerical stability. We decompose the assistive signal into an analytic high-frequency component derived from Inverse Dynamics and a learned low-frequency residual correction, governed by a hybrid neural policy. We demonstrate that our method enables robust tracking of highly agile, dynamically infeasible maneuvers that were previously intractable for physics-based methods.