Shear-based Grasp Control for Multi-fingered Underactuated Tactile Robotic Hands
作者: Christopher J. Ford, Haoran Li, Manuel G. Catalano, Matteo Bianchi, Efi Psomopoulou, Nathan F. Lepora
分类: cs.RO
发布日期: 2025-03-21
备注: 16 pages. 10 figures. Accepted in IEEE Transactions on Robotics, Special Section on Tactile Robotics
💡 一句话要点
提出基于剪切力的多指欠驱动触觉机器人手抓取控制方案,提升灵巧性和安全性。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 触觉机器人 欠驱动手 抓取控制 剪切力 深度学习 迁移学习 软体机器人
📋 核心要点
- 现有欠驱动机器人手在处理易碎物体时,缺乏足够的触觉反馈和精细控制,容易造成损坏。
- 该论文提出一种基于指尖触觉传感器剪切力的抓取控制框架,实现对抓取姿态和力度的精确调节。
- 实验表明,该方案能够安全地抓取和操作易碎物体,并在动态扰动下保持稳定,提升了操作灵活性。
📝 摘要(中文)
本文提出了一种基于剪切力的控制方案,用于控制配备了软体仿生触觉传感器的Pisa/IIT拟人SoftHand抓取和操作精细物体。这些“microTac”触觉传感器是TacTip视觉触觉传感器的微型版本,可以提取每个指尖的精确接触几何形状和力信息,作为反馈输入到控制器中,在操作所持物体时调节抓取。通过并行处理流程,我们异步捕获触觉图像并预测来自多个触觉传感器的接触姿态和力。利用监督深度学习和迁移学习技术,开发了跨所有传感器的一致姿态和力模型。然后,我们开发了一种抓取控制框架,该框架同时使用来自所有指尖传感器的接触力反馈,使手能够在外部干扰下安全地处理精细物体。该控制框架应用于多个抓取操作实验:首先,在物体重量变化的情况下,保持一个柔性杯子的抓取而不压碎它;其次,一个倾倒任务,其中杯子的质心动态变化;第三,一个触觉驱动的领导者-跟随者任务,其中人类引导一个被持有的物体。这些操作任务通过使用来自触觉传感的快速反射控制,展示了欠驱动机器人手更像人类的灵巧性。
🔬 方法详解
问题定义:现有的欠驱动机器人手在抓取和操作易碎物体时,由于缺乏精确的触觉反馈,难以实现精细的力控制,容易导致物体损坏或抓取失败。尤其是在存在外部扰动或物体重心变化的情况下,抓取的稳定性难以保证。
核心思路:该论文的核心思路是利用指尖上的触觉传感器获取的剪切力信息,作为控制器的反馈信号,实时调节抓取力度和姿态,从而实现对抓取的精确控制。通过对多个指尖传感器数据的融合,可以更好地感知物体的整体状态,提高抓取的鲁棒性。
技术框架:整体框架包含以下几个主要模块:1) 触觉数据采集模块:使用microTac触觉传感器获取指尖的触觉图像。2) 触觉数据处理模块:通过并行处理流程,异步捕获触觉图像,并利用深度学习模型预测接触姿态和力。3) 抓取控制模块:基于指尖传感器提供的接触力反馈,设计控制算法,调节手的关节运动,实现对抓取的精确控制。4) 迁移学习模块:利用迁移学习技术,提升模型的泛化能力和训练效率。
关键创新:该论文的关键创新在于将指尖触觉传感器获取的剪切力信息直接用于抓取控制,实现了一种基于触觉反馈的闭环控制方案。与传统的基于视觉或力矩传感器的控制方法相比,该方法能够更直接地感知接触状态,提高抓取的灵敏度和鲁棒性。此外,使用迁移学习技术,降低了模型训练的成本。
关键设计:在触觉数据处理模块中,使用了监督深度学习模型,利用大量标注数据训练模型,实现对接触姿态和力的精确预测。损失函数的设计需要考虑姿态和力的预测精度,以及模型的泛化能力。在抓取控制模块中,需要设计合适的控制算法,根据指尖传感器提供的力反馈,调节手的关节运动,实现对抓取的精确控制。具体的控制算法可能涉及到PID控制、力位混合控制等。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该控制方案能够成功地抓取和操作易碎物体,如柔性杯子,并在物体重量变化和外部扰动下保持抓取的稳定性。在倾倒任务中,机器人能够根据杯子质心的动态变化,调整抓取姿态,保证倾倒过程的顺利进行。在领导者-跟随者任务中,机器人能够跟随人类的引导,实现对物体的精确操作。
🎯 应用场景
该研究成果可应用于医疗机器人、服务机器人、工业自动化等领域。例如,在医疗领域,可以用于辅助医生进行精细手术操作;在服务领域,可以用于帮助机器人抓取和操作易碎物品,如玻璃器皿、食品等;在工业自动化领域,可以用于提高生产线的灵活性和效率,实现对不同形状和材质物体的抓取和装配。
📄 摘要(原文)
This paper presents a shear-based control scheme for grasping and manipulating delicate objects with a Pisa/IIT anthropomorphic SoftHand equipped with soft biomimetic tactile sensors on all five fingertips. These `microTac' tactile sensors are miniature versions of the TacTip vision-based tactile sensor, and can extract precise contact geometry and force information at each fingertip for use as feedback into a controller to modulate the grasp while a held object is manipulated. Using a parallel processing pipeline, we asynchronously capture tactile images and predict contact pose and force from multiple tactile sensors. Consistent pose and force models across all sensors are developed using supervised deep learning with transfer learning techniques. We then develop a grasp control framework that uses contact force feedback from all fingertip sensors simultaneously, allowing the hand to safely handle delicate objects even under external disturbances. This control framework is applied to several grasp-manipulation experiments: first, retaining a flexible cup in a grasp without crushing it under changes in object weight; second, a pouring task where the center of mass of the cup changes dynamically; and third, a tactile-driven leader-follower task where a human guides a held object. These manipulation tasks demonstrate more human-like dexterity with underactuated robotic hands by using fast reflexive control from tactile sensing.