A-SLIP: Acoustic Sensing for Continuous In-hand Slip Estimation
作者: Uksang Yoo, Yuemin Mao, Jean Oh, Jeffrey Ichnowski
分类: cs.RO
发布日期: 2026-04-09
💡 一句话要点
提出A-SLIP:利用声学传感实现连续的机械手内滑移估计
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 声学传感 滑移估计 机械手 触觉感知 卷积神经网络
📋 核心要点
- 现有基于视觉、电容或力矩测量的触觉传感方法在尺寸、耐用性和联合估计滑移方向和幅度方面存在根本性的权衡。
- A-SLIP利用多通道声学传感,通过分析接触引起的振动来估计滑移,旨在克服传统触觉传感的局限性。
- 实验表明,A-SLIP在滑移检测精度和方向误差方面优于基线方法,并且能够实现闭环反应控制。
📝 摘要(中文)
本文提出了一种名为A-SLIP的多通道声学传感系统,该系统集成到平行爪夹持器中,用于估计抓取平面内的连续滑移。A-SLIP传感器由位于纹理化硅胶接触垫后面的压电麦克风组成,用于捕获结构化的接触诱导振动。A-SLIP模型使用轻量级卷积网络将同步的多通道音频处理为log-mel频谱图,联合预测滑移的存在、方向和幅度。在机器人和外部诱导滑移的实验中,经过微调的四麦克风配置实现了14.1度的平均绝对方向误差,在检测精度方面优于基线高达12%,并将方向误差降低了32%。与单麦克风配置相比,多通道设计将方向误差降低了64%,幅度误差降低了68%,突出了空间声学传感在解决滑移方向模糊性方面的重要性。我们进一步在闭环反应控制中评估了A-SLIP,发现它可以实现可靠、低成本、实时的手内滑移估计。
🔬 方法详解
问题定义:论文旨在解决机械手抓取物体时,实时、准确地估计手内滑移的问题。现有方法,如基于视觉、电容或力矩的触觉传感器,在尺寸、耐用性以及同时估计滑移方向和幅度方面存在局限性,难以满足实际应用需求。
核心思路:论文的核心思路是利用声学传感来检测和估计滑移。当物体在机械手中发生滑移时,会产生接触振动,这些振动包含滑移的信息。通过分析这些振动信号,可以推断出滑移的存在、方向和幅度。这种方法具有非侵入性、成本低廉的优点。
技术框架:A-SLIP系统主要由以下几个部分组成:1) 集成在平行爪夹持器中的压电麦克风阵列;2) 纹理化的硅胶接触垫,用于增强接触振动;3) 数据采集模块,用于同步采集多通道音频信号;4) 基于卷积神经网络的滑移估计模型。整体流程是:机械手抓取物体,发生滑移产生振动,麦克风阵列采集振动信号,信号经过预处理(如转换为log-mel频谱图),然后输入到卷积神经网络中进行滑移估计。
关键创新:A-SLIP的关键创新在于:1) 提出了一种基于多通道声学传感的滑移估计方法,克服了传统触觉传感的局限性;2) 设计了一种轻量级的卷积神经网络,能够实时处理多通道音频信号,并联合预测滑移的存在、方向和幅度;3) 通过实验验证了多通道声学传感在解决滑移方向模糊性方面的优势。
关键设计:A-SLIP使用了四个压电麦克风,并将其放置在纹理化硅胶接触垫的后面,以捕获接触引起的振动。音频信号被转换为log-mel频谱图,作为卷积神经网络的输入。该网络由几个卷积层和全连接层组成,用于提取特征并进行滑移估计。损失函数包括分类损失(用于检测滑移的存在)和回归损失(用于估计滑移的方向和幅度)。网络结构和参数经过精心设计,以实现实时性和准确性之间的平衡。
🖼️ 关键图片
📊 实验亮点
实验结果表明,A-SLIP系统在滑移估计方面表现出色。在机器人和外部诱导滑移的实验中,经过微调的四麦克风配置实现了14.1度的平均绝对方向误差,在检测精度方面优于基线高达12%,并将方向误差降低了32%。与单麦克风配置相比,多通道设计将方向误差降低了64%,幅度误差降低了68%。
🎯 应用场景
A-SLIP技术可应用于各种需要精确手内操作的机器人应用中,例如:工业自动化中的精密装配、医疗机器人中的微创手术、以及家庭服务机器人中的物体抓取和操作。该技术能够提高机器人操作的可靠性和灵活性,降低操作成本,并扩展机器人的应用范围。
📄 摘要(原文)
Reliable in-hand manipulation requires accurate real-time estimation of slip between a gripper and a grasped object. Existing tactile sensing approaches based on vision, capacitance, or force-torque measurements face fundamental trade-offs in form factor, durability, and their ability to jointly estimate slip direction and magnitude. We present A-SLIP, a multi-channel acoustic sensing system integrated into a parallel-jaw gripper for estimating continuous slip in the grasp plane. The A-SLIP sensor consists of piezoelectric microphones positioned behind a textured silicone contact pad to capture structured contact-induced vibrations. The A-SLIP model processes synchronized multi-channel audio as log-mel spectrograms using a lightweight convolutional network, jointly predicting the presence, direction, and magnitude of slip. Across experiments with robot- and externally induced slip conditions, the fine-tuned four-microphone configuration achieves a mean absolute directional error of 14.1 degrees, outperforms baselines by up to 12 percent in detection accuracy, and reduces directional error by 32 percent. Compared with single-microphone configurations, the multi-channel design reduces directional error by 64 percent and magnitude error by 68 percent, underscoring the importance of spatial acoustic sensing in resolving slip direction ambiguity. We further evaluate A-SLIP in closed-loop reactive control and find that it enables reliable, low-cost, real-time estimation of in-hand slip. Project videos and additional details are available at https://a-slip.github.io.