Punching Bag vs. Punching Person: Motion Transferability in Videos

📄 arXiv: 2508.00085v1 📥 PDF

作者: Raiyaan Abdullah, Jared Claypoole, Michael Cogswell, Ajay Divakaran, Yogesh Rawat

分类: cs.CV, cs.AI

发布日期: 2025-07-31

备注: Accepted to ICCV 2025 main conference

🔗 代码/项目: GITHUB


💡 一句话要点

提出运动迁移性评估框架,揭示动作识别模型在不同上下文泛化能力不足的问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 动作识别 运动迁移 视频理解 泛化能力 上下文学习

📋 核心要点

  1. 现有动作识别模型泛化能力强,但在不同上下文中迁移高级运动概念方面存在不足,例如“打人”和“打沙袋”。
  2. 论文提出运动迁移性框架,包含合成和真实视频数据集,用于评估模型在不同上下文中的动作识别能力。
  3. 实验表明,现有模型在识别新上下文中的动作时性能显著下降,揭示了模型对上下文的依赖性。

📝 摘要(中文)

本文提出了一个运动迁移性框架,用于评估动作识别模型在不同上下文中迁移高级运动概念的能力。该框架包含三个数据集:Syn-TA(合成数据集,包含3D物体运动)、Kinetics400-TA和Something-Something-v2-TA(均改编自自然视频数据集)。研究评估了13个最先进的模型,发现模型在识别新上下文中的高级动作时性能显著下降。分析表明:多模态模型在处理细粒度未知动作时比粗粒度动作更困难;无偏的Syn-TA数据集与真实世界数据集一样具有挑战性;较大的模型在空间线索占主导地位时提高了迁移性,但在密集的时间推理方面表现不佳,而对物体和背景线索的依赖阻碍了泛化。进一步探索了解耦粗略和精细运动如何改善时间挑战性数据集中的识别。这项研究为评估动作识别中的运动迁移性建立了一个关键基准。

🔬 方法详解

问题定义:现有动作识别模型在训练数据分布内表现良好,但缺乏在不同上下文中泛化高级运动概念的能力。例如,模型可能能够识别“打沙袋”,但无法识别“打人”,即使这两个动作都属于“打”这一高级概念。现有方法未能充分考虑运动的上下文信息,导致模型过度拟合训练数据中的特定场景和对象,从而限制了其泛化能力。

核心思路:论文的核心思路是通过构建包含不同上下文的动作识别数据集,并评估现有模型在这些数据集上的性能,来衡量模型的运动迁移能力。通过分析模型在不同上下文中的表现差异,可以揭示模型对上下文的依赖程度,并为改进模型的泛化能力提供指导。

技术框架:该研究的技术框架主要包括三个部分:数据集构建、模型评估和结果分析。首先,构建了三个数据集:Syn-TA(合成数据集,包含3D物体运动)、Kinetics400-TA和Something-Something-v2-TA(均改编自自然视频数据集)。然后,选取了13个最先进的动作识别模型,并在这些数据集上进行评估。最后,对实验结果进行分析,揭示了模型在不同上下文中的表现差异,并探讨了影响模型运动迁移能力的因素。

关键创新:该研究的关键创新在于提出了一个运动迁移性评估框架,并构建了包含不同上下文的动作识别数据集。该框架可以用于评估现有模型在不同上下文中的泛化能力,并为改进模型的泛化能力提供指导。此外,该研究还揭示了模型对上下文的依赖程度,并探讨了影响模型运动迁移能力的因素。

关键设计:在数据集构建方面,Syn-TA数据集使用3D物体运动合成,可以控制数据集的偏差,并提供ground truth的运动信息。Kinetics400-TA和Something-Something-v2-TA数据集通过修改原始数据集的标签,使其更适合评估运动迁移能力。在模型评估方面,选取了13个最先进的动作识别模型,包括2D CNN、3D CNN和Transformer等不同类型的模型。在结果分析方面,使用了多种指标来评估模型的性能,包括准确率、召回率和F1值等。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,现有动作识别模型在识别新上下文中的动作时性能显著下降。例如,在Syn-TA数据集上,模型的准确率下降了20%以上。此外,研究还发现,多模态模型在处理细粒度未知动作时比粗粒度动作更困难,而较大的模型在空间线索占主导地位时提高了迁移性,但在密集的时间推理方面表现不佳。

🎯 应用场景

该研究成果可应用于机器人、自动驾驶、视频监控等领域。例如,在机器人领域,可以提高机器人对不同场景下动作的识别能力,使其能够更好地与人类进行交互。在自动驾驶领域,可以提高车辆对行人动作的识别能力,从而提高行车安全性。在视频监控领域,可以提高监控系统对异常行为的识别能力,从而提高安全性。

📄 摘要(原文)

Action recognition models demonstrate strong generalization, but can they effectively transfer high-level motion concepts across diverse contexts, even within similar distributions? For example, can a model recognize the broad action "punching" when presented with an unseen variation such as "punching person"? To explore this, we introduce a motion transferability framework with three datasets: (1) Syn-TA, a synthetic dataset with 3D object motions; (2) Kinetics400-TA; and (3) Something-Something-v2-TA, both adapted from natural video datasets. We evaluate 13 state-of-the-art models on these benchmarks and observe a significant drop in performance when recognizing high-level actions in novel contexts. Our analysis reveals: 1) Multimodal models struggle more with fine-grained unknown actions than with coarse ones; 2) The bias-free Syn-TA proves as challenging as real-world datasets, with models showing greater performance drops in controlled settings; 3) Larger models improve transferability when spatial cues dominate but struggle with intensive temporal reasoning, while reliance on object and background cues hinders generalization. We further explore how disentangling coarse and fine motions can improve recognition in temporally challenging datasets. We believe this study establishes a crucial benchmark for assessing motion transferability in action recognition. Datasets and relevant code: https://github.com/raiyaan-abdullah/Motion-Transfer.