Learning Semantic Atomic Skills for Multi-Task Robotic Manipulation
作者: Yihang Zhu, Weiqing Wang, Shijie Wu, Ye Shi, Jingya Wang
分类: cs.RO
发布日期: 2025-12-20
💡 一句话要点
AtomSkill:面向多任务机器人操作,学习语义原子技能以提升泛化性
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱二:RL算法与架构 (RL & Architecture)
关键词: 机器人操作 模仿学习 多任务学习 原子技能 视觉语言模型 对比学习 关键姿态想象
📋 核心要点
- 多任务机器人操作面临次优演示、轨迹噪声和行为多模态等挑战,现有基于技能的方法难以保证语义一致性和跨任务泛化。
- AtomSkill通过构建语义相关的原子技能库,并结合关键姿态想象的动作生成模块,实现对长期目标和精细动作的协同控制。
- 实验结果表明,AtomSkill在模拟和真实环境中均显著优于现有方法,证明了其在多任务机器人操作中的有效性。
📝 摘要(中文)
本文提出AtomSkill,一个用于多任务机器人操作的模仿学习框架,旨在学习和利用结构化的原子技能空间。该方法通过抓取器状态关键帧检测和视觉-语言模型标注,将演示数据分割成变长的技能,构建语义相关的原子技能库,并使用对比学习确保技能嵌入在语义上一致且时间上连贯。此外,提出了带有关键姿态想象的动作生成模块,联合预测技能的长期终点关键姿态和即时动作序列,从而实现对运动目标和精细控制的同时推理,促进鲁棒的技能链。在模拟和真实环境中的大量实验表明,AtomSkill在各种操作任务中始终优于现有方法。
🔬 方法详解
问题定义:现有的基于技能的机器人操作方法通常依赖于固定长度的分割或环境先验知识,导致语义一致性差,跨任务泛化能力弱。论文旨在解决多任务机器人操作中,如何学习可复用的、语义一致的原子技能,从而提升模仿学习的性能和泛化能力的问题。
核心思路:论文的核心思路是将复杂的机器人操作任务分解为一系列具有语义含义的原子技能,并通过学习这些原子技能之间的组合关系,实现对多任务的泛化。关键在于如何自动发现这些原子技能,并保证其语义一致性和时间连贯性。
技术框架:AtomSkill框架主要包含两个核心模块:1) 语义相关的原子技能库构建模块:该模块通过分析演示数据,利用抓取器状态关键帧检测和视觉-语言模型标注,将演示轨迹分割成变长的原子技能,并使用对比学习方法学习技能的嵌入表示。2) 带有关键姿态想象的动作生成模块:该模块接收当前状态和目标技能作为输入,预测技能的长期终点关键姿态和即时动作序列,从而实现对运动目标和精细控制的同时推理。
关键创新:论文的关键创新在于:1) 提出了一种基于抓取器状态和视觉-语言模型的原子技能自动发现方法,无需人工干预即可将复杂任务分解为具有语义含义的原子技能。2) 提出了带有关键姿态想象的动作生成模块,通过联合预测长期目标和即时动作,实现了更鲁棒的技能链。
关键设计:在原子技能库构建中,使用对比学习损失函数来保证技能嵌入的语义一致性和时间连贯性。具体而言,对于同一技能的不同演示,其嵌入表示应该尽可能接近;而对于时间上相邻的技能,其嵌入表示也应该具有一定的相似性。在动作生成模块中,使用Transformer网络来预测关键姿态和动作序列,并采用分层控制策略,首先预测长期目标,然后根据长期目标生成即时动作。
🖼️ 关键图片
📊 实验亮点
实验结果表明,AtomSkill在模拟和真实环境中均显著优于现有的模仿学习方法。例如,在Cluttered Pick and Place任务中,AtomSkill的成功率比基线方法高出15%以上。此外,AtomSkill还表现出良好的跨任务泛化能力,能够在未见过的任务上取得较好的性能。
🎯 应用场景
AtomSkill具有广泛的应用前景,可应用于工业自动化、家庭服务机器人、医疗机器人等领域。例如,在工业自动化中,机器人可以学习执行各种装配、搬运等任务;在家庭服务机器人中,可以学习执行清洁、烹饪等任务。该研究有助于提升机器人的智能化水平,使其能够更好地适应复杂多变的环境。
📄 摘要(原文)
While imitation learning has shown impressive results in single-task robot manipulation, scaling it to multi-task settings remains a fundamental challenge due to issues such as suboptimal demonstrations, trajectory noise, and behavioral multi-modality. Existing skill-based methods attempt to address this by decomposing actions into reusable abstractions, but they often rely on fixed-length segmentation or environmental priors that limit semantic consistency and cross-task generalization. In this work, we propose AtomSkill, a novel multi-task imitation learning framework that learns and leverages a structured Atomic Skill Space for composable robot manipulation. Our approach is built on two key technical contributions. First, we construct a Semantically Grounded Atomic Skill Library by partitioning demonstrations into variable-length skills using gripper-state keyframe detection and vision-language model annotation. A contrastive learning objective ensures the resulting skill embeddings are both semantically consistent and temporally coherent. Second, we propose an Action Generation module with Keypose Imagination, which jointly predicts a skill's long-horizon terminal keypose and its immediate action sequence. This enables the policy to reason about overarching motion goals and fine-grained control simultaneously, facilitating robust skill chaining. Extensive experiments in simulated and real-world environments show that AtomSkill consistently outperforms state-of-the-art methods across diverse manipulation tasks.