Learning Human-Robot Handshaking Preferences for Quadruped Robots
作者: Alessandra Chappuis, Guillaume Bellegarda, Auke Ijspeert
分类: cs.RO
发布日期: 2024-06-28
备注: Accepted to the 2024 IEEE International Conference on Robot and Human Interactive Communication (RO-MAN)
💡 一句话要点
针对四足机器人,提出基于用户偏好的握手交互学习方法
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 四足机器人 人机交互 社交机器人 偏好学习 中央模式发生器
📋 核心要点
- 现有四足机器人缺乏根据人类个体偏好调整交互方式的能力,难以建立社交信任。
- 提出基于中央模式发生器(CPG)的握手动作参数化方法,并通过用户反馈学习个体偏好。
- 实验表明,该方法能有效学习用户偏好,优化后的握手动作在多个指标上优于随机握手。
📝 摘要(中文)
本文研究了四足机器人与人类进行社交互动时,学习最优握手方式的任务,以适应不同用户的偏好。该方法使机器人能够在保持三条腿平衡的同时,通过中央模式发生器(CPG)参数化握手动作,包括幅度、频率、刚度和持续时间。通过25名受试者的10次二元选择,学习一个信念模型来拟合个体偏好。结果表明,该策略有效,76%的用户对识别出的最佳握手参数感到满意,20%感到中立。与随机和测试握手相比,优化后的握手在幅度和频率上的误差显著降低,动态时间规整(DTW)得分更低,能量效率更高,这些都表明机器人与用户的偏好实现了同步。
🔬 方法详解
问题定义:论文旨在解决四足机器人如何学习并执行符合人类个体偏好的握手动作的问题。现有的机器人交互方式通常是预设的、通用的,无法适应不同人的习惯和喜好,导致交互体验不佳,难以建立信任感。因此,需要一种能够根据用户反馈进行个性化调整的握手策略。
核心思路:论文的核心思路是通过学习人类对不同握手动作的偏好,从而优化机器人的握手参数。具体来说,将握手动作参数化,然后通过用户的二元选择反馈来更新一个信念模型,该模型用于预测用户对不同参数组合的偏好程度。最终,选择信念模型预测的最优参数组合作为机器人的握手动作。
技术框架:整体框架包含以下几个主要阶段:1) 握手动作参数化:使用中央模式发生器(CPG)来生成握手动作,并通过幅度、频率、刚度和持续时间等参数进行控制。2) 用户偏好学习:通过一系列二元选择实验,让用户在不同的握手动作中进行选择,并记录用户的选择结果。3) 信念模型更新:使用用户的选择结果来更新一个信念模型,该模型用于预测用户对不同握手参数组合的偏好程度。4) 最优握手动作选择:根据信念模型,选择用户最可能喜欢的握手参数组合,作为机器人的最终握手动作。
关键创新:该论文的关键创新在于提出了一种基于用户偏好学习的四足机器人握手交互方法。与传统的预设握手动作相比,该方法能够根据用户的个体差异进行个性化调整,从而提高交互体验和建立信任感。此外,使用中央模式发生器(CPG)来参数化握手动作,使得机器人能够生成自然、流畅的握手动作。
关键设计:论文的关键设计包括:1) 使用中央模式发生器(CPG)来参数化握手动作,CPG的参数包括幅度、频率、刚度和持续时间。2) 使用高斯过程(Gaussian Process)作为信念模型,用于预测用户对不同握手参数组合的偏好程度。3) 通过主动学习(Active Learning)策略来选择下一个要呈现给用户的握手动作,以最大化信念模型的更新效率。4) 采用二元选择(Binary Choice)作为用户反馈方式,简化用户操作。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法能够有效学习用户的握手偏好。76%的用户对优化后的握手参数感到满意,20%的用户感到中立。与随机握手和测试握手相比,优化后的握手在幅度和频率上的误差显著降低,动态时间规整(DTW)得分更低,能量效率更高。这些结果表明,机器人能够有效地与用户的偏好同步。
🎯 应用场景
该研究成果可应用于各种需要人机社交互动的四足机器人场景,例如导盲犬机器人、陪伴机器人、搜救机器人等。通过学习人类的偏好,机器人可以提供更自然、更舒适的交互体验,从而提高用户的信任感和接受度。此外,该方法还可以推广到其他类型的机器人交互任务中,例如语音交互、手势交互等。
📄 摘要(原文)
Quadruped robots are showing impressive abilities to navigate the real world. If they are to become more integrated into society, social trust in interactions with humans will become increasingly important. Additionally, robots will need to be adaptable to different humans based on individual preferences. In this work, we study the social interaction task of learning optimal handshakes for quadruped robots based on user preferences. While maintaining balance on three legs, we parameterize handshakes with a Central Pattern Generator consisting of an amplitude, frequency, stiffness, and duration. Through 10 binary choices between handshakes, we learn a belief model to fit individual preferences for 25 different subjects. Our results show that this is an effective strategy, with 76% of users feeling happy with their identified optimal handshake parameters, and 20% feeling neutral. Moreover, compared with random and test handshakes, the optimized handshakes have significantly decreased errors in amplitude and frequency, lower Dynamic Time Warping scores, and improved energy efficiency, all of which indicate robot synchronization to the user's preferences. Video results can be found at https://youtu.be/elvPv8mq1KM .