BiDexGrasp: Coordinated Bimanual Dexterous Grasps across Object Geometries and Sizes
作者: Mu Lin, Yi-Lin Wei, Jiaxuan Chen, Yuhao Lin, Shuoyu Chen, Jiangran Lyu, Jiayi Chen, Yansong Tang, He Wang, Wei-Shi Zheng
分类: cs.RO
发布日期: 2026-04-08
备注: Project Page: https://frenkielm.github.io/BiDexGrasp.github.io/
💡 一句话要点
BiDexGrasp:提出大规模双臂灵巧抓取数据集和生成模型,解决物体几何尺寸差异下的抓取问题。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 双臂灵巧抓取 机器人抓取 数据集合成 深度学习 几何尺寸自适应
📋 核心要点
- 现有双臂灵巧抓取研究受限于数据集规模和质量,以及模型泛化能力不足,难以应对不同几何尺寸的物体。
- BiDexGrasp提出了一种高效的双臂抓取合成流程,并构建了大规模数据集,同时设计了双臂协调和几何尺寸自适应的抓取生成框架。
- 实验结果表明,BiDexGrasp在模拟和真实环境中均表现出优异的性能,验证了数据合成流程和生成框架的有效性。
📝 摘要(中文)
双臂灵巧抓取是机器人领域一个基础且有前景的方向,但其进展受到缺乏全面的数据集和强大的生成模型的限制。本文提出了BiDexGrasp,它包含一个大规模双臂灵巧抓取数据集和一个新的生成模型。对于数据集,我们提出了一种新的双臂抓取合成流程,以有效地标注物理上可行的数据用于数据集构建。该流程通过高效的基于区域的抓取初始化和解耦的力闭合抓取优化,解决了高维双臂抓取的挑战。在该流程的支持下,我们构建了一个大规模双臂灵巧抓取数据集,包含6351个不同的物体,尺寸范围从30到80厘米,以及970万个标注的抓取数据。基于该数据集,我们进一步引入了一个双臂协调和几何尺寸自适应的灵巧抓取生成框架,该框架包含两个关键设计:一个双臂协调模块和一个几何尺寸自适应的抓取生成策略,以在未见过的物体上生成协调和高质量的抓取。在模拟和真实世界中进行的大量实验证明了我们提出的数据合成流程和学习的生成框架的卓越性能。
🔬 方法详解
问题定义:现有双臂灵巧抓取方法在处理不同几何形状和尺寸的物体时,面临数据匮乏和泛化性差的问题。缺乏大规模、高质量的标注数据,使得模型难以学习到鲁棒的抓取策略。此外,现有方法难以有效协调双臂动作,导致抓取质量不高。
核心思路:BiDexGrasp的核心思路是通过数据合成和模型设计,解决双臂灵巧抓取中的数据瓶颈和泛化性问题。通过高效的合成流程生成大规模数据集,并设计双臂协调和几何尺寸自适应的生成框架,从而提升抓取性能。
技术框架:BiDexGrasp框架主要包含两个部分:数据合成流程和抓取生成模型。数据合成流程负责生成大规模双臂灵巧抓取数据集,包括基于区域的抓取初始化和解耦的力闭合抓取优化。抓取生成模型则基于该数据集进行训练,包含双臂协调模块和几何尺寸自适应的抓取生成策略。
关键创新:BiDexGrasp的关键创新在于:1) 提出了高效的双臂抓取合成流程,能够快速生成大规模、高质量的抓取数据;2) 设计了双臂协调模块,能够有效协调双臂动作,提升抓取质量;3) 提出了几何尺寸自适应的抓取生成策略,能够处理不同几何形状和尺寸的物体。
关键设计:数据合成流程采用两阶段策略:首先,基于区域进行抓取初始化,快速生成候选抓取姿态;然后,通过解耦的力闭合抓取优化,对候选抓取姿态进行优化,确保抓取的稳定性。抓取生成模型采用深度神经网络结构,双臂协调模块通过注意力机制学习双臂之间的依赖关系。几何尺寸自适应的抓取生成策略则通过条件变分自编码器实现,能够根据物体的几何尺寸生成合适的抓取姿态。
🖼️ 关键图片
📊 实验亮点
BiDexGrasp通过大规模数据集和创新的生成模型,在双臂灵巧抓取任务上取得了显著的性能提升。实验结果表明,BiDexGrasp在模拟和真实环境中均优于现有方法,能够生成高质量、稳定的抓取姿态。具体性能数据未知,但论文强调了其优越性。
🎯 应用场景
BiDexGrasp在工业自动化、家庭服务机器人、医疗机器人等领域具有广泛的应用前景。例如,在工业自动化中,可以用于实现对不同尺寸和形状的零件进行高效、稳定的抓取和装配。在家庭服务机器人中,可以用于帮助人们完成各种家务任务,如整理物品、清洁房间等。在医疗机器人中,可以用于辅助医生进行手术操作,提高手术精度和效率。
📄 摘要(原文)
Bimanual dexterous grasping is a fundamental and promising area in robotics, yet its progress is constrained by the lack of comprehensive datasets and powerful generation models. In this work, we propose BiDexGrasp, consists of a large-scale bimanual dexterous grasp dataset and a novel generation model. For dataset, we propose a novel bimanual grasp synthesis pipeline to efficiently annotate physically feasible data for dataset construction. This pipeline addresses the challenges of high-dimensional bimanual grasping through a two-stage synthesis strategy of efficient region-based grasp initialization and decoupled force-closure grasp optimization. Powered by this pipeline, we construct a large-scale bimanual dexterous grasp dataset, comprising 6351 diverse objects with sizes ranging from 30 to 80 cm, along with 9.7 million annotated grasp data. Based on this dataset, we further introduce a bimanual-coordinated and geometry-size-adaptive dexterous grasping generation framework. The framework lies in two key designs: a bimanual coordination module and a geometry-size-adaptive grasp generation strategy to generate coordinated and high-quality grasps on unseen objects. Extensive experiments conducted in both simulation and real world demonstrate the superior performance of our proposed data synthesis pipeline and learned generative framework.