Haptic Communication in Human-Human and Human-Robot Co-Manipulation

📄 arXiv: 2509.18327v1 📥 PDF

作者: Katherine H. Allen, Chris Rogers, Elaine S. Short

分类: cs.RO

发布日期: 2025-09-22

备注: 9 pages, 18 figures, ROMAN 2025


💡 一句话要点

研究人机和人人协同操作中的触觉通信差异,为提升机器人辅助能力提供依据

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 人机协同 触觉通信 机器人辅助 运动轨迹分析 IMU传感器

📋 核心要点

  1. 人机协同操作中,机器人缺乏理解人类意图的触觉通信能力,导致协作效率降低。
  2. 通过对比人-人与人-机器人协同操作的运动轨迹,分析触觉通信的差异。
  3. 实验结果表明,人-人协同更流畅,且运动特征存在客观差异,为改进机器人触觉通信提供依据。

📝 摘要(中文)

本文研究了人-人协同操作物体时的触觉通信,即通过物体运动传递意图。实验中,记录了人-人协同移动物体的运动轨迹,其中一人主导运动计划,另一人不知情。随后,记录相同参与者与机器人协同操作同一物体的运动轨迹。通过低成本IMU追踪共享物体的运动,直接比较人-人与人-机器人协同操作的差异。问卷调查显示,人-人协同更流畅。IMU数据分析也表明,不同协同方式的运动特征存在客观差异。人-人与人-机器人试验在准确性和流畅性上的客观和主观差异,推动了未来通过使机器人能够发送和接收拟人化的触觉信号来改进物理任务的机器人助手的研究。

🔬 方法详解

问题定义:现有的人机协同操作中,机器人难以理解人类的运动意图,导致协作过程不够流畅自然。现有的机器人辅助系统在触觉通信方面存在不足,无法像人类一样通过物体运动进行有效的意图传递。这使得人机协同效率低下,且用户体验较差。

核心思路:本文的核心思路是通过对比人-人协同和人-机器人协同操作的运动轨迹,量化触觉通信的差异。通过分析这些差异,可以了解人类在协同操作中如何利用触觉信息进行沟通,从而为改进机器人触觉通信能力提供指导。这样设计的目的是为了使机器人能够更好地理解人类的意图,从而实现更自然、高效的人机协同。

技术框架:该研究的技术框架主要包括以下几个阶段:1) 数据采集:使用低成本IMU传感器记录人-人协同和人-机器人协同操作同一物体时的运动轨迹。2) 数据处理:对采集到的IMU数据进行处理,提取运动特征。3) 差异分析:对比人-人协同和人-机器人协同的运动特征,量化触觉通信的差异。4) 主观评价:通过问卷调查收集参与者对不同协同方式的主观评价。

关键创新:该研究的关键创新在于:1) 直接对比人-人协同和人-机器人协同操作的运动轨迹,量化触觉通信的差异。2) 使用低成本IMU传感器进行数据采集,降低了研究成本。3) 结合客观数据分析和主观评价,更全面地评估了不同协同方式的优劣。与现有方法相比,该研究更注重于量化触觉通信的差异,从而为改进机器人触觉通信能力提供更具体的指导。

关键设计:实验中,选择了特定的物理任务,例如移动一个物体到指定位置。参与者被要求在不同的条件下完成该任务,包括人-人协同和人-机器人协同。IMU传感器的采样频率和数据处理方法需要仔细选择,以保证数据的准确性和可靠性。问卷调查的设计也需要考虑到参与者的主观感受,例如流畅性、舒适性等。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,人-人协同操作在流畅性方面显著优于人-机器人协同操作。IMU数据分析显示,人-人协同操作的运动轨迹更加平滑,加速度变化更小。问卷调查结果也表明,参与者认为人-人协同操作更加自然、舒适。这些结果客观地验证了人-人协同操作在触觉通信方面的优势,并为改进机器人触觉通信能力提供了明确的方向。

🎯 应用场景

该研究成果可应用于各种人机协同操作场景,例如:工业机器人辅助装配、医疗机器人辅助手术、家庭服务机器人辅助家务等。通过提升机器人的触觉通信能力,可以实现更自然、高效的人机协同,提高工作效率,降低操作难度,并改善用户体验。未来,该研究还可扩展到虚拟现实和增强现实等领域,为用户提供更沉浸式的交互体验。

📄 摘要(原文)

When a human dyad jointly manipulates an object, they must communicate about their intended motion plans. Some of that collaboration is achieved through the motion of the manipulated object itself, which we call "haptic communication." In this work, we captured the motion of human-human dyads moving an object together with one participant leading a motion plan about which the follower is uninformed. We then captured the same human participants manipulating the same object with a robot collaborator. By tracking the motion of the shared object using a low-cost IMU, we can directly compare human-human shared manipulation to the motion of those same participants interacting with the robot. Intra-study and post-study questionnaires provided participant feedback on the collaborations, indicating that the human-human collaborations are significantly more fluent, and analysis of the IMU data indicates that it captures objective differences in the motion profiles of the conditions. The differences in objective and subjective measures of accuracy and fluency between the human-human and human-robot trials motivate future research into improving robot assistants for physical tasks by enabling them to send and receive anthropomorphic haptic signals.