TacFinRay: Soft Tactile Fin-Ray Finger with Indirect Tactile Sensing for Robust Grasping
作者: Saekwang Nam, Bowen Deng, Loong Yi Lee, Jonathan M. Rossiter, Nathan F. Lepora
分类: cs.RO
发布日期: 2025-12-06
备注: Accepted in IEEE Robotics Automation Letters. S. Nam, B. Deng co-first authors
💡 一句话要点
TacFinRay:用于稳健抓取的间接触觉传感软体Fin-Ray手指
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 软体机器人 触觉传感 Fin-Ray结构 间接传感 卷积神经网络
📋 核心要点
- 传统触觉传感器在软体机器人上的集成面临挑战,尤其是在需要远离接触界面的传感时,直接传感方案难以实现。
- TacFinRay手指通过铰链机构将Fin-Ray结构的形变传递到内部视觉传感器,利用卷积神经网络间接推断接触位置和深度。
- 实验表明,该设计在深度和位置传感方面具有较高的精度,并且在不确定拾取位置的抓取放置任务中表现出良好的性能。
📝 摘要(中文)
本文提出了一种触觉传感器化的Fin-Ray手指,它通过间接传感方法能够同时检测接触位置和压入深度。该设计在软体Fin-Ray结构和一个刚性传感模块之间集成了一个铰链机构,使得形变和位移信息能够传递到底部的横梁上,横梁上排列着基于TacTip视觉触觉传感器的生物结构设计的带标记针尖的阵列。内部摄像头捕获的形变模式通过卷积神经网络处理,以推断接触条件,而无需直接感知手指表面。通过改变针的配置和铰链的方向来优化手指设计,实现了0.1毫米的深度和2毫米的位置传感精度。该感知系统对各种压头形状和尺寸表现出强大的泛化能力,并应用于不确定拾取位置下的抓取放置任务,触觉反馈显著提高了放置精度。总而言之,这项工作提供了一种轻量级、灵活且可扩展的触觉传感解决方案,适用于传感需求位于远离接触界面的软体机器人结构。
🔬 方法详解
问题定义:论文旨在解决软体机器人抓取过程中,如何实现轻量化、灵活且可扩展的触觉感知,尤其是在传感需求位于远离接触界面的情况下。现有方法通常依赖直接触觉传感,难以集成到软体结构中,且鲁棒性较差。
核心思路:论文的核心思路是采用间接触觉传感。通过将软体Fin-Ray手指的形变信息,通过铰链机构传递到位于底部的视觉传感器阵列,利用视觉信息来推断接触位置和深度。这种方法避免了直接在手指表面集成传感器,提高了系统的灵活性和鲁棒性。
技术框架:TacFinRay手指的整体架构包括三个主要模块:1) 软体Fin-Ray结构:负责与物体接触并产生形变;2) 铰链机构:将Fin-Ray结构的形变传递到底部的横梁;3) 视觉传感模块:包含一个内部摄像头和带标记针尖的阵列,摄像头捕获针尖的位移模式,并通过卷积神经网络进行处理,最终推断出接触位置和深度。
关键创新:该论文的关键创新在于将软体Fin-Ray结构与间接视觉触觉传感相结合。通过巧妙的铰链设计,实现了形变信息的有效传递,并利用卷积神经网络实现了高精度的触觉感知。与传统的直接触觉传感方法相比,该方法具有更高的灵活性、鲁棒性和可扩展性。
关键设计:在设计上,论文优化了针的配置和铰链的方向,以提高传感精度。具体来说,通过调整针的密度和排列方式,以及铰链的刚度和位置,来优化形变信息的传递效率。此外,论文还使用了卷积神经网络来处理视觉信息,网络的结构和参数经过精心设计,以实现最佳的性能。损失函数的设计也至关重要,需要能够准确地反映接触位置和深度的误差。
📊 实验亮点
实验结果表明,TacFinRay手指在深度和位置传感方面具有较高的精度,分别达到了0.1毫米和2毫米。此外,该设计对各种压头形状和尺寸表现出强大的泛化能力。在不确定拾取位置下的抓取放置任务中,触觉反馈显著提高了放置精度,表明该设计具有良好的实用价值。
🎯 应用场景
TacFinRay手指具有广泛的应用前景,例如在柔性机器人、医疗机器人、人机协作等领域。它可以用于实现更精确、更安全的抓取操作,提高机器人的适应性和智能化水平。此外,该技术还可以应用于虚拟现实、游戏等领域,提供更逼真的触觉反馈。
📄 摘要(原文)
We present a tactile-sensorized Fin-Ray finger that enables simultaneous detection of contact location and indentation depth through an indirect sensing approach. A hinge mechanism is integrated between the soft Fin-Ray structure and a rigid sensing module, allowing deformation and translation information to be transferred to a bottom crossbeam upon which are an array of marker-tipped pins based on the biomimetic structure of the TacTip vision-based tactile sensor. Deformation patterns captured by an internal camera are processed using a convolutional neural network to infer contact conditions without directly sensing the finger surface. The finger design was optimized by varying pin configurations and hinge orientations, achieving 0.1\,mm depth and 2mm location-sensing accuracies. The perception demonstrated robust generalization to various indenter shapes and sizes, which was applied to a pick-and-place task under uncertain picking positions, where the tactile feedback significantly improved placement accuracy. Overall, this work provides a lightweight, flexible, and scalable tactile sensing solution suitable for soft robotic structures where the sensing needs situating away from the contact interface.