Oh F**k! How Do People Feel about Robots that Leverage Profanity?

📄 arXiv: 2505.05831v1 📥 PDF

作者: Madison R. Shippy, Brian J. Zhang, Naomi T. Fitter

分类: cs.RO

发布日期: 2025-05-09

备注: Under review for the 2025 IEEE RO-MAN Conference


💡 一句话要点

研究机器人使用脏话对用户社会认知的影响,挑战传统机器人设计

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction)

关键词: 人机交互 机器人设计 脏话使用 社会认知 情感表达

📋 核心要点

  1. 现有机器人通常过于礼貌,缺乏个性化表达,忽略了打破常规可能带来的潜在益处。
  2. 研究探索在机器人出错时使用脏话,观察其对用户社会认知的影响,旨在挑战传统机器人设计。
  3. 通过多阶段实验,发现用户对机器人使用脏话的接受度较高,甚至可能觉得亲切幽默。

📝 摘要(中文)

本研究探讨了在机器人的人机交互中,于出错场景下使用脏话是否能改善人类用户的社会认知。通过三个阶段的探索性研究,包括面向学生群体的在线视频研究(N=76)、面向美国普通人群的在线视频研究(N=98)以及校园内的现场概念验证部署(N=52),每个研究都包含无语音、非脏话错误回应和脏话错误回应三种条件。结果表明,虽然口头承认错误通常是有益的,但在非脏话和脏话错误回应条件之间几乎没有显著差异。在美国文化背景下,许多用户可能不介意机器人说脏话,甚至可能觉得这很亲切和幽默。这项工作预示着一个有前景且有趣的机器人设计空间,挑战了典型的机器人角色设计。

🔬 方法详解

问题定义:论文旨在研究在人机交互中,机器人于出错场景下使用脏话是否会影响人类用户的社会认知。现有机器人通常被设计成过于礼貌和正式,缺乏真实感和人情味,这可能限制了它们在某些场景下的应用。研究试图探索一种新的机器人角色设计,通过打破常规的语言表达方式,例如使用脏话,来改善用户对机器人的感知。

核心思路:核心思路是检验机器人使用脏话是否会降低用户的负面情绪,甚至提升亲近感。研究假设,在特定文化背景下,适当的脏话使用可能被用户视为一种真实和幽默的表达,从而拉近人与机器人之间的距离。这种设计思路挑战了传统的机器人设计理念,即机器人应该始终保持礼貌和克制。

技术框架:研究采用了多阶段的实验设计,包括:1) 在线视频研究(学生群体);2) 在线视频研究(美国普通人群);3) 现场概念验证部署(校园)。每个阶段都设置了三种条件:无语音、非脏话错误回应和脏话错误回应。通过观察用户在不同条件下的反应,评估机器人使用脏话对社会认知的影响。研究主要依赖问卷调查和行为观察来收集数据。

关键创新:该研究的关键创新在于挑战了传统的机器人角色设计,探索了机器人使用脏话的可能性和影响。以往的研究通常关注如何使机器人更加礼貌和友好,而该研究则反其道而行之,尝试通过打破语言规范来改善人机交互体验。这种创新性的思路为机器人设计开辟了新的可能性。

关键设计:研究的关键设计在于对脏话的使用方式和场景进行了控制。研究者并没有让机器人随意使用脏话,而是将其限制在特定的出错场景下,并且选择了相对温和的脏话。此外,研究还考虑了文化背景的影响,选择了在美国文化中相对常见的脏话。研究中使用的问卷调查和行为观察方法也经过了精心设计,以确保数据的有效性和可靠性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究结果表明,在所有三个实验阶段中,虽然口头承认错误通常是有益的,但在非脏话和脏话错误回应条件之间几乎没有显著差异。这表明,在美国文化背景下,许多用户可能不介意机器人说脏话,甚至可能觉得这很亲切和幽默。这一发现挑战了传统观念,为机器人设计提供了新的可能性。

🎯 应用场景

该研究成果可应用于服务型机器人、陪伴型机器人等领域,尤其是在需要表达情感或应对突发情况的场景下。通过合理使用脏话,机器人可以更真实地模拟人类情感,从而提升用户体验和信任感。此外,该研究也为机器人伦理设计提供了新的视角,促使人们重新思考机器人的角色定位和行为规范。

📄 摘要(原文)

Profanity is nearly as old as language itself, and cursing has become particularly ubiquitous within the last century. At the same time, robots in personal and service applications are often overly polite, even though past work demonstrates the potential benefits of robot norm-breaking. Thus, we became curious about robots using curse words in error scenarios as a means for improving social perceptions by human users. We investigated this idea using three phases of exploratory work: an online video-based study (N = 76) with a student pool, an online video-based study (N = 98) in the general U.S. population, and an in-person proof-of-concept deployment (N = 52) in a campus space, each of which included the following conditions: no-speech, non-expletive error response, and expletive error response. A surprising result in the outcomes for all three studies was that although verbal acknowledgment of an error was typically beneficial (as expected based on prior work), few significant differences appeared between the non-expletive and expletive error acknowledgment conditions (counter to our expectations). Within the cultural context of our work, the U.S., it seems that many users would likely not mind if robots curse, and may even find it relatable and humorous. This work signals a promising and mischievous design space that challenges typical robot character design.