Touched by ChatGPT: Using an LLM to Drive Affective Tactile Interaction

📄 arXiv: 2501.07224v1 📥 PDF

作者: Qiaoqiao Ren, Tony Belpaeme

分类: cs.RO

发布日期: 2025-01-13


💡 一句话要点

利用LLM驱动情感触觉交互,实现机器人向人类传递情感

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 情感触觉交互 大型语言模型 人机交互 触觉反馈 情感识别 振动模式 可穿戴设备

📋 核心要点

  1. 现有机器人触觉交互能力有限,难以表达细微情感,阻碍了人机情感交流的自然性。
  2. 利用大型语言模型(LLM)生成与特定情感和手势对应的振动模式,驱动机器人进行情感触觉交互。
  3. 实验结果表明,人类能够准确识别机器人通过振动模式传递的情感,验证了LLM生成情感触觉数据的有效性。

📝 摘要(中文)

触觉是富含情感交流的重要组成部分,在人际互动中扮演着关键角色,并在人机交互中具有巨大的潜力。先前的研究表明,人类触觉的稀疏表示可以有效地传递社交触觉信号。然而,由于许多人形机器人仅具备简单的能力(例如只能打开和关闭手),限制了细微的触觉表达,人机触觉交互的进展仍然有限。本研究探索了机器人如何使用触觉振动的稀疏表示向人传递情感。为此,我们开发了一种集成了5x5振动电机网格的可穿戴袖套,使机器人能够传递不同的触觉情感和手势。我们使用大型语言模型(LLM)中的链式提示,生成了对应于10种情感(例如,快乐、悲伤、恐惧)和6种触觉手势(例如,轻拍、摩擦、轻敲)的不同10秒振动模式。参与者(N = 32)随后根据感知到的效价和唤醒度对每个振动刺激进行评分。结果表明,人们能够准确地识别预期的情感,这一结果与之前的研究结果一致。这些结果突出了LLM生成情感触觉数据并通过触觉信号有效传递情感的能力。通过将复杂的情感和触觉表达转化为振动模式,这项研究展示了LLM如何增强人与机器人之间的物理互动。

🔬 方法详解

问题定义:现有的人形机器人通常只具备简单的触觉交互能力,例如简单的抓握动作,无法表达复杂的情感和意图。这限制了人机交互的自然性和丰富性。因此,需要一种方法使机器人能够通过触觉有效地传递情感信息。

核心思路:本研究的核心思路是利用大型语言模型(LLM)的强大生成能力,将情感和触觉手势转化为特定的振动模式。通过训练LLM,使其能够根据给定的情感或手势生成相应的振动序列,从而使机器人能够通过触觉向人类传递情感。

技术框架:该研究的技术框架主要包括以下几个阶段:1) 使用链式提示(Chain Prompts)方法,利用LLM生成与10种情感和6种触觉手势相对应的振动模式。2) 设计并制作一个可穿戴的袖套,该袖套集成了5x5的振动电机网格,用于产生不同的振动模式。3) 招募参与者,让他们感受袖套产生的振动模式,并根据感知到的效价和唤醒度对每个振动刺激进行评分。4) 分析参与者的评分数据,评估机器人通过振动模式传递情感的准确性。

关键创新:该研究的关键创新在于利用LLM生成情感触觉数据,并将其应用于人机交互。与传统的触觉交互方法相比,该方法能够生成更加多样化和细微的触觉模式,从而更有效地传递情感信息。此外,该研究还提出了一种基于链式提示的方法,用于指导LLM生成符合特定情感和手势的振动模式。

关键设计:在LLM的链式提示设计中,研究人员精心设计了提示语,以引导LLM生成符合特定情感和手势的振动模式。袖套上的振动电机采用5x5的网格布局,以提供足够的空间分辨率来表达不同的触觉模式。振动模式的时长设置为10秒,以确保参与者有足够的时间来感知和理解振动模式所表达的情感。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,参与者能够准确识别机器人通过振动模式传递的情感,验证了LLM生成情感触觉数据的有效性。该研究结果与先前的研究结果一致,进一步证明了触觉在情感交流中的重要作用。具体来说,参与者对不同情感的识别准确率均高于随机水平,表明LLM生成的振动模式能够有效地传递情感信息。

🎯 应用场景

该研究成果可应用于情感陪护机器人、虚拟现实/增强现实(VR/AR)中的触觉反馈、远程医疗中的情感交流等领域。通过触觉传递情感,可以增强人机交互的自然性和亲密度,提升用户体验,并在心理治疗和情感支持方面发挥积极作用。未来,该技术有望应用于更广泛的机器人和可穿戴设备中,实现更加丰富和自然的触觉交互。

📄 摘要(原文)

Touch is a fundamental aspect of emotion-rich communication, playing a vital role in human interaction and offering significant potential in human-robot interaction. Previous research has demonstrated that a sparse representation of human touch can effectively convey social tactile signals. However, advances in human-robot tactile interaction remain limited, as many humanoid robots possess simplistic capabilities, such as only opening and closing their hands, restricting nuanced tactile expressions. In this study, we explore how a robot can use sparse representations of tactile vibrations to convey emotions to a person. To achieve this, we developed a wearable sleeve integrated with a 5x5 grid of vibration motors, enabling the robot to communicate diverse tactile emotions and gestures. Using chain prompts within a Large Language Model (LLM), we generated distinct 10-second vibration patterns corresponding to 10 emotions (e.g., happiness, sadness, fear) and 6 touch gestures (e.g., pat, rub, tap). Participants (N = 32) then rated each vibration stimulus based on perceived valence and arousal. People are accurate at recognising intended emotions, a result which aligns with earlier findings. These results highlight the LLM's ability to generate emotional haptic data and effectively convey emotions through tactile signals. By translating complex emotional and tactile expressions into vibratory patterns, this research demonstrates how LLMs can enhance physical interaction between humans and robots.