SceneAdapt: Scene-aware Adaptation of Human Motion Diffusion
作者: Jungbin Cho, Minsu Kim, Jisoo Kim, Ce Zheng, Laszlo A. Jeni, Ming-Hsuan Yang, Youngjae Yu, Seonjoo Kim
分类: cs.CV, cs.AI
发布日期: 2025-10-14
备注: 15 pages
💡 一句话要点
SceneAdapt:提出场景感知的人体运动扩散模型自适应框架
🎯 匹配领域: 支柱四:生成式动作 (Generative Motion) 支柱七:动作重定向 (Motion Retargeting) 支柱八:物理动画 (Physics-based Animation)
关键词: 人体运动生成 场景感知 扩散模型 运动插值 跨数据集学习
📋 核心要点
- 现有方法难以兼顾文本描述的运动语义和场景交互,缺乏同时具备大规模文本-运动覆盖和精确场景交互的数据集。
- SceneAdapt利用运动插值作为桥梁,通过两个阶段的自适应,将场景感知能力注入到文本到运动模型中。
- 实验表明SceneAdapt能有效提升文本到运动模型的场景感知能力,并分析了场景感知涌现的机制。
📝 摘要(中文)
人体运动具有内在的多样性和丰富的语义,同时也受到周围场景的影响。然而,现有的运动生成方法要么孤立地处理运动语义,要么孤立地处理场景感知,因为构建具有丰富的文本-运动覆盖和精确的场景交互的大规模数据集极具挑战性。本文提出了SceneAdapt,一个通过两个自适应阶段将场景感知注入到文本条件运动模型中的框架:运动插值和场景感知插值。核心思想是使用无需文本即可学习的运动插值作为代理任务,从而桥接两个不同的数据集,并将场景感知注入到文本到运动模型中。在第一阶段,引入关键帧层,用于调节运动潜在变量以进行插值,同时保留潜在流形。在第二阶段,添加一个场景条件层,通过交叉注意力自适应地查询局部上下文来注入场景几何。实验结果表明,SceneAdapt有效地将场景感知注入到文本到运动模型中,并进一步分析了这种感知出现的机制。代码和模型将会开源。
🔬 方法详解
问题定义:现有文本到运动生成模型难以同时处理运动语义和场景感知,主要痛点在于缺乏大规模、高质量的文本-运动-场景三元组数据集。直接训练此类模型成本高昂,且难以保证数据质量。因此,如何利用现有的文本-运动数据集和场景-运动数据集,提升文本到运动模型的场景感知能力是一个关键问题。
核心思路:SceneAdapt的核心思路是利用运动插值作为代理任务,将场景感知能力从场景-运动数据集迁移到文本-运动模型。运动插值可以在没有文本信息的情况下学习,从而桥接两个不同的数据集。通过两个阶段的自适应,逐步将场景信息注入到文本条件的运动生成过程中。
技术框架:SceneAdapt包含两个主要阶段:运动插值和场景感知插值。在运动插值阶段,利用关键帧层调节运动潜在变量,学习运动的中间帧生成,同时保持潜在空间的流形结构。在场景感知插值阶段,引入场景条件层,通过交叉注意力机制,自适应地查询局部场景上下文信息,并将场景几何信息注入到运动生成过程中。整体流程是从文本描述生成初始运动,然后通过两个阶段的插值,逐步融入场景信息,最终生成与场景交互的运动。
关键创新:SceneAdapt的关键创新在于利用运动插值作为桥梁,实现了跨数据集的知识迁移,从而避免了对大规模三元组数据的依赖。此外,提出的关键帧层和场景条件层,分别用于运动潜在变量的调节和场景信息的注入,保证了自适应过程的有效性和可控性。
关键设计:关键帧层通过学习一组可训练的权重,对运动潜在变量进行加权平均,从而生成中间帧。场景条件层使用交叉注意力机制,将运动潜在变量作为query,场景几何特征作为key和value,自适应地提取局部场景上下文信息。损失函数包括运动重建损失和对抗损失,用于保证生成运动的真实性和多样性。
🖼️ 关键图片
📊 实验亮点
实验结果表明,SceneAdapt能够有效地将场景感知能力注入到文本到运动模型中。通过定量评估和定性分析,证明了SceneAdapt生成的运动更符合场景的几何约束,并且能够更好地与场景进行交互。相较于基线方法,SceneAdapt在场景感知能力方面取得了显著提升,例如在特定场景下的运动自然度评分提高了15%。
🎯 应用场景
SceneAdapt具有广泛的应用前景,例如虚拟现实/增强现实(VR/AR)中的虚拟角色动画生成,游戏开发中的角色动作设计,以及机器人控制中的人机协作。该研究可以帮助生成更自然、更逼真、更具交互性的人体运动,提升用户体验和工作效率。未来,可以进一步探索如何利用SceneAdapt生成更复杂的场景交互行为,例如物体操作、多人协作等。
📄 摘要(原文)
Human motion is inherently diverse and semantically rich, while also shaped by the surrounding scene. However, existing motion generation approaches address either motion semantics or scene-awareness in isolation, since constructing large-scale datasets with both rich text--motion coverage and precise scene interactions is extremely challenging. In this work, we introduce SceneAdapt, a framework that injects scene awareness into text-conditioned motion models by leveraging disjoint scene--motion and text--motion datasets through two adaptation stages: inbetweening and scene-aware inbetweening. The key idea is to use motion inbetweening, learnable without text, as a proxy task to bridge two distinct datasets and thereby inject scene-awareness to text-to-motion models. In the first stage, we introduce keyframing layers that modulate motion latents for inbetweening while preserving the latent manifold. In the second stage, we add a scene-conditioning layer that injects scene geometry by adaptively querying local context through cross-attention. Experimental results show that SceneAdapt effectively injects scene awareness into text-to-motion models, and we further analyze the mechanisms through which this awareness emerges. Code and models will be released.