TaSA: Two-Phased Deep Predictive Learning of Tactile Sensory Attenuation for Improving In-Grasp Manipulation
作者: Pranav Ponnivalavan, Satoshi Funabashi, Alexander Schmitz, Tetsuya Ogata, Shigeki Sugano
分类: cs.RO
发布日期: 2026-02-05
备注: 8 pages, 8 figures, 8 tables, ICRA2026 accepted
💡 一句话要点
TaSA:用于提升抓取操作的触觉感觉衰减双阶段深度预测学习
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 触觉感知 感觉衰减 机器人操作 深度学习 预测学习
📋 核心要点
- 机器人灵巧操作面临区分自身接触和外部接触产生的触觉信号的挑战,忽略自身接触会限制其在真实场景中的泛化能力。
- TaSA通过双阶段深度预测学习框架,显式学习自身触觉动力学,并将其融入运动学习中,从而突出物体接触信号。
- 在多个插入任务上的实验表明,TaSA显著提高了操作成功率,验证了基于感觉衰减的触觉感知的重要性。
📝 摘要(中文)
本文提出了一种名为TaSA的双阶段深度预测学习框架,旨在解决机器人灵巧操作中区分自身接触和外部接触产生的触觉信号的难题。第一阶段,TaSA显式地学习自身触觉动力学,建模机器人自身动作如何产生触觉反馈。第二阶段,将学习到的模型融入运动学习阶段,以突出操作过程中物体接触信号。通过在铅笔芯插入、硬币投币、回形针固定等一系列需要精细触觉辨别的插入任务上的评估,结果表明,与基线方法相比,使用TaSA训练的策略显著提高了成功率,证明了基于感觉衰减的结构化触觉感知对于灵巧机器人操作至关重要。
🔬 方法详解
问题定义:机器人灵巧操作,如物体捏取和工具使用,通常涉及物体与多个手指的同时接触。区分机器人自身接触和外部接触产生的触觉信号是关键挑战。现有方法通常避免或忽略自身触觉信息,限制了其在复杂真实场景中的应用,因为自身接触难以避免。
核心思路:借鉴人类通过感觉衰减机制区分自身触摸和外部刺激的能力,TaSA的核心思路是让机器人学习预测自身动作产生的触觉反馈,从而在运动学习中能够区分并抑制这些自身触觉信号,突出物体接触信号。
技术框架:TaSA包含两个阶段:1) 自我触觉动力学学习阶段:使用深度学习模型学习机器人自身动作与触觉反馈之间的关系,即预测给定动作序列产生的触觉信号。2) 运动学习阶段:将第一阶段学习到的自我触觉模型集成到运动学习过程中,例如通过修改奖励函数或损失函数,使得机器人更加关注物体接触信号,而忽略或弱化自身触觉信号。
关键创新:TaSA的关键创新在于显式地建模和学习机器人自身的触觉动力学,并将其用于指导运动学习。与现有方法直接忽略自身触觉或简单地避免自身接触不同,TaSA通过预测的方式来区分自身触觉和外部触觉,从而能够更好地处理复杂的接触情况。
关键设计:具体的技术细节包括:1) 使用循环神经网络(RNN)或Transformer等时序模型来学习自我触觉动力学,输入为机器人动作序列,输出为预测的触觉传感器读数。2) 在运动学习阶段,可以使用强化学习算法,例如PPO或SAC,并修改奖励函数,使得机器人因接触物体而获得奖励,因自身接触而受到惩罚。3) 损失函数可以设计为预测触觉信号与实际触觉信号之间的差异,并加入正则化项以防止过拟合。
🖼️ 关键图片
📊 实验亮点
实验结果表明,在铅笔芯插入、硬币投币、回形针固定等任务中,使用TaSA训练的策略显著提高了成功率。例如,在某些任务中,TaSA可以将成功率从基线方法的20%提高到80%以上,证明了其在处理复杂触觉交互方面的有效性。此外,TaSA在不同物体尺寸、位置和方向上的泛化能力也得到了验证。
🎯 应用场景
TaSA技术可应用于各种需要灵巧操作的机器人应用场景,如医疗手术机器人、精密装配机器人、家庭服务机器人等。通过提高机器人对触觉信息的理解和利用能力,可以使其在复杂环境中更安全、更有效地完成任务,例如在狭小空间内进行操作,或者处理易碎物品。
📄 摘要(原文)
Humans can achieve diverse in-hand manipulations, such as object pinching and tool use, which often involve simultaneous contact between the object and multiple fingers. This is still an open issue for robotic hands because such dexterous manipulation requires distinguishing between tactile sensations generated by their self-contact and those arising from external contact. Otherwise, object/robot breakage happens due to contacts/collisions. Indeed, most approaches ignore self-contact altogether, by constraining motion to avoid/ignore self-tactile information during contact. While this reduces complexity, it also limits generalization to real-world scenarios where self-contact is inevitable. Humans overcome this challenge through self-touch perception, using predictive mechanisms that anticipate the tactile consequences of their own motion, through a principle called sensory attenuation, where the nervous system differentiates predictable self-touch signals, allowing novel object stimuli to stand out as relevant. Deriving from this, we introduce TaSA, a two-phased deep predictive learning framework. In the first phase, TaSA explicitly learns self-touch dynamics, modeling how a robot's own actions generate tactile feedback. In the second phase, this learned model is incorporated into the motion learning phase, to emphasize object contact signals during manipulation. We evaluate TaSA on a set of insertion tasks, which demand fine tactile discrimination: inserting a pencil lead into a mechanical pencil, inserting coins into a slot, and fixing a paper clip onto a sheet of paper, with various orientations, positions, and sizes. Across all tasks, policies trained with TaSA achieve significantly higher success rates than baseline methods, demonstrating that structured tactile perception with self-touch based on sensory attenuation is critical for dexterous robotic manipulation.