UniTac: Whole-Robot Touch Sensing Without Tactile Sensors

📄 arXiv: 2507.07980v1 📥 PDF

作者: Wanjia Fu, Hongyu Li, Ivy X. He, Stefanie Tellex, Srinath Sridhar

分类: cs.RO

发布日期: 2025-07-10


💡 一句话要点

UniTac:无需触觉传感器,仅用关节信息实现机器人全身触觉感知

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 触觉感知 机器人 本体感受 深度学习 人机交互 接触定位 数据驱动

📋 核心要点

  1. 现有机器人触觉感知依赖于昂贵的触觉皮肤,限制了其在人机交互和非结构化环境中的应用。
  2. UniTac利用机器人自身的关节传感器数据,通过数据驱动的方法学习触觉与关节状态之间的映射关系。
  3. 实验表明,UniTac在Franka和Spot机器人上实现了厘米级的接触定位精度,且计算效率高,无需额外硬件。

📝 摘要(中文)

本文提出UniTac,一种数据驱动的全身触觉感知方法,该方法仅使用本体感受关节传感器,无需安装额外的触觉传感器即可实现接触定位。UniTac旨在普及触觉感知技术,为HRI研究人员提供一种现成的工具,使他们的机器人具备触觉感知能力。我们在Franka机器人手臂和Spot四足机器人上验证了该方法。在Franka上,接触定位精度达到8.0厘米以内;在Spot上,接触定位精度达到7.2厘米以内。在RTX 3090 GPU上,推理速度约为2000 Hz,且无需为机器人添加任何额外的传感器。

🔬 方法详解

问题定义:论文旨在解决机器人触觉感知中对额外触觉传感器的依赖问题。现有方法通常需要安装昂贵的触觉皮肤,这增加了机器人的成本和复杂性,限制了触觉感知技术的普及。因此,如何在不增加额外硬件的情况下,实现准确的触觉感知是本文要解决的核心问题。

核心思路:UniTac的核心思路是利用机器人自身的本体感受信息(如关节角度、力矩等)来推断机器人与环境的接触情况。通过建立关节状态与触觉信息之间的映射关系,实现无需额外传感器的触觉感知。这种方法降低了成本,简化了系统集成。

技术框架:UniTac的整体框架包含数据采集、模型训练和触觉定位三个主要阶段。首先,通过与环境的交互,采集机器人的关节状态和对应的触觉标签(例如,接触位置)。然后,使用这些数据训练一个深度学习模型,学习关节状态到触觉信息的映射。最后,在推理阶段,仅使用关节传感器数据,即可通过训练好的模型预测接触位置。

关键创新:UniTac最重要的创新点在于其无需额外触觉传感器,仅利用机器人自身的关节信息实现触觉感知。这与传统的触觉感知方法形成了鲜明对比,降低了成本和复杂性。此外,UniTac采用数据驱动的方法,可以适应不同的机器人平台和任务。

关键设计:UniTac的关键设计包括:1) 数据采集策略,如何有效地采集包含丰富触觉信息的训练数据;2) 模型选择,选择合适的深度学习模型来学习关节状态到触觉信息的映射关系;3) 损失函数设计,设计合适的损失函数来优化模型的性能,例如,可以使用交叉熵损失函数来优化接触位置的分类精度。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

UniTac在Franka机器人手臂和Spot四足机器人上进行了验证。在Franka上,接触定位精度达到8.0厘米以内;在Spot上,接触定位精度达到7.2厘米以内。该方法在RTX 3090 GPU上的推理速度约为2000 Hz,表明其具有很高的计算效率,可以满足实时应用的需求。最重要的是,所有这些结果都是在没有添加任何额外传感器的情况下实现的。

🎯 应用场景

UniTac具有广泛的应用前景,例如人机协作、远程操作、医疗机器人和家庭服务机器人等。它可以使机器人更好地理解周围环境,提高交互的安全性、可靠性和效率。通过降低触觉感知的成本和复杂性,UniTac有望加速触觉感知技术在机器人领域的普及。

📄 摘要(原文)

Robots can better interact with humans and unstructured environments through touch sensing. However, most commercial robots are not equipped with tactile skins, making it challenging to achieve even basic touch-sensing functions, such as contact localization. We present UniTac, a data-driven whole-body touch-sensing approach that uses only proprioceptive joint sensors and does not require the installation of additional sensors. Our approach enables a robot equipped solely with joint sensors to localize contacts. Our goal is to democratize touch sensing and provide an off-the-shelf tool for HRI researchers to provide their robots with touch-sensing capabilities. We validate our approach on two platforms: the Franka robot arm and the Spot quadruped. On Franka, we can localize contact to within 8.0 centimeters, and on Spot, we can localize to within 7.2 centimeters at around 2,000 Hz on an RTX 3090 GPU without adding any additional sensors to the robot. Project website: https://ivl.cs.brown.edu/research/unitac.