Evaluating Transferable Emotion Expressions for Zoomorphic Social Robots using VR Prototyping
作者: Shaun Macdonald, Robin Bretin, Salma ElSayed
分类: cs.HC, cs.RO
发布日期: 2024-10-20
备注: 10 pages, 9 figures, accepted to 23rd IEEE International Symposium on Mixed and Augmented Reality (ISMAR 2024)
💡 一句话要点
利用VR原型设计评估拟人化社交机器人可迁移的情感表达
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 拟人化机器人 情感表达 虚拟现实 原型设计 人机交互
📋 核心要点
- 现有拟人化机器人情感表达能力不足,限制了与用户建立深厚情感连接的潜力,硬件原型设计又面临诸多限制。
- 该研究利用VR快速原型设计和被动触觉交互,探索不同情感表达方式,并进行多模态情感表达的参与式原型设计。
- 研究发现不同情感表达方式在可识别性、有效性和用户共情方面存在差异,强调了面部表情的重要性。
📝 摘要(中文)
拟人化机器人作为宠物饲养的低维护替代品,具有提供陪伴和福祉的潜力。然而,许多此类机器人情感表达有限,限制了它们与日常家庭用户建立丰富情感关系的可能性。此外,使用硬件原型探索这种设计空间受到物理和后勤约束。我们利用虚拟现实快速原型设计与被动触觉交互,对情感表达方式进行了广泛的混合方法评估,并进行了多模态表达的参与式原型设计。我们发现不同方式在可识别性、有效性和用户共情方面存在差异,同时强调了面部表情的重要性以及结合动物类和明确表达方式的益处。我们利用我们的发现为情感拟人化机器人的设计和通过硬件修改或增强现实的潜在实现提供有希望的方向,然后讨论VR原型设计如何使设计师和研究人员更容易进入该领域。
🔬 方法详解
问题定义:论文旨在解决拟人化社交机器人情感表达不足的问题。现有方法主要依赖于硬件原型,开发周期长、成本高,且难以快速迭代和评估不同的情感表达方式。这阻碍了研究人员探索更丰富、更自然的情感表达方式,从而限制了机器人与用户建立更深层次情感连接的潜力。
核心思路:论文的核心思路是利用虚拟现实(VR)技术进行快速原型设计和评估。通过VR,研究人员可以快速创建和修改机器人的外观和行为,并模拟不同的情感表达方式。用户可以在VR环境中与机器人互动,并提供反馈,从而帮助研究人员优化设计。这种方法降低了原型设计的成本和时间,并允许更广泛的探索不同的设计选择。
技术框架:该研究的技术框架主要包括以下几个阶段:1) VR环境搭建:使用VR软件创建虚拟的机器人和交互环境。2) 情感表达方式设计:设计不同的情感表达方式,包括面部表情、肢体语言和声音等。3) 用户评估:招募用户参与VR互动实验,评估不同情感表达方式的可识别性、有效性和用户共情程度。4) 数据分析:分析用户反馈数据,提取有用的设计建议。5) 原型迭代:根据用户反馈,迭代和优化机器人的情感表达设计。
关键创新:该研究的关键创新在于将VR技术应用于拟人化社交机器人的情感表达设计和评估。与传统的硬件原型设计相比,VR原型设计具有成本低、周期短、易于迭代等优点。此外,该研究还探索了多种情感表达方式,并分析了它们对用户情感的影响,为未来的机器人设计提供了有价值的参考。
关键设计:研究中,VR环境的设计需要尽可能逼真,以提高用户的沉浸感和互动体验。情感表达方式的设计需要考虑到机器人的外观和功能,以及用户的文化背景和情感需求。用户评估环节需要采用混合方法,包括定量数据(如可识别率、评分)和定性数据(如用户访谈、观察记录),以全面了解用户对不同情感表达方式的反应。
🖼️ 关键图片
📊 实验亮点
研究发现面部表情在情感表达中起着至关重要的作用,并且结合动物类和明确的表达方式可以提高情感表达的有效性。通过VR原型设计,研究人员能够快速评估和比较不同的情感表达方式,并根据用户反馈进行迭代优化。这些发现为未来的拟人化社交机器人设计提供了有价值的指导。
🎯 应用场景
该研究成果可应用于各种需要情感互动的机器人应用场景,例如陪伴机器人、教育机器人、医疗机器人等。通过优化机器人的情感表达能力,可以提高用户体验,增强人机交互的自然性和有效性,从而促进机器人在日常生活中的广泛应用。此外,VR原型设计方法也为机器人设计领域的研究人员提供了一种新的工具和思路。
📄 摘要(原文)
Zoomorphic robots have the potential to offer companionship and well-being as accessible, low-maintenance alternatives to pet ownership. Many such robots, however, feature limited emotional expression, restricting their potential for rich affective relationships with everyday domestic users. Additionally, exploring this design space using hardware prototyping is obstructed by physical and logistical constraints. We leveraged virtual reality rapid prototyping with passive haptic interaction to conduct a broad mixed-methods evaluation of emotion expression modalities and participatory prototyping of multimodal expressions. We found differences in recognisability, effectiveness and user empathy between modalities while highlighting the importance of facial expressions and the benefits of combining animal-like and unambiguous modalities. We use our findings to inform promising directions for the affective zoomorphic robot design and potential implementations via hardware modification or augmented reality, then discuss how VR prototyping makes this field more accessible to designers and researchers.