Beyond the Uncanny Valley: A Mixed-Method Investigation of Anthropomorphism in Protective Responses to Robot Abuse

📄 arXiv: 2510.26082v2 📥 PDF

作者: Fan Yang, Lingyao Li, Yaxin Hu, Michael Rodgers, Renkai Ma

分类: cs.RO

发布日期: 2025-10-30 (更新: 2025-11-01)


💡 一句话要点

研究类人机器人受虐待时,不同程度的拟人化如何影响人类的保护反应。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱八:物理动画 (Physics-based Animation)

关键词: 人机交互 机器人伦理 拟人化 恐怖谷效应 道德判断

📋 核心要点

  1. 现有研究对机器人虐待行为的道德影响关注不足,尤其缺乏对拟人化程度与人类保护反应之间关系的深入探讨。
  2. 该研究通过混合方法,结合问卷调查、生理数据和定性分析,考察不同拟人化程度的机器人受虐待时,人类的保护反应差异。
  3. 实验结果表明,恐怖谷效应中的中等拟人化机器人反而更能激发人类的保护欲,并引发更强烈的道德谴责和权利呼吁。

📝 摘要(中文)

本研究探讨了不同程度的拟人化如何影响人类对机器人虐待的保护反应,将“计算机即社会行动者(CASA)”和“恐怖谷”理论扩展到道德领域。实验中,201名参与者观看了虐待低(蜘蛛型)、中(双足型)或高(人形)拟人化机器人的视频。通过自述问卷(测量情绪和恐怖感)、面部表情自动分析的生理数据和定性反思,进行了综合分析。结果表明,保护反应并非线性。双足型机器人因其怪异感和“脊背发凉”的感觉(符合恐怖谷效应)引发了最强烈的生理愤怒表达。与蜘蛛型机器人相比,双足型和人形机器人都引发了更高的自述愤怒和内疚感。定性研究表明,随着拟人化程度的提高,道德推理从财产损失的技术评估转变为对施虐者品格的谴责,治理建议也从财产法扩展到对准动物权利和更广泛的社会责任的呼吁。这些结果表明,恐怖谷效应非但没有减弱道德关注,反而悖论式地增强了保护冲动,为机器人设计、政策和未来法律框架提供了重要的启示。

🔬 方法详解

问题定义:该论文旨在研究不同拟人化程度的机器人遭受虐待时,人类的保护反应是否存在差异,以及这种差异是否与恐怖谷效应有关。现有方法主要集中在CASA理论,但缺乏对道德层面的深入探讨,也未能充分考虑恐怖谷效应对人类情感和行为的影响。

核心思路:论文的核心思路是考察不同拟人化程度的机器人(低、中、高)在遭受虐待时,人类的情绪反应(愤怒、内疚等)、生理反应(面部表情)和道德判断(对施虐者的评价、对机器人权利的看法)是否存在显著差异。通过这种方式,揭示拟人化程度与保护反应之间的非线性关系,并验证恐怖谷效应是否会影响人类的道德决策。

技术框架:该研究采用混合方法,包括:1)实验设计:201名参与者观看三种不同拟人化程度的机器人(蜘蛛型、双足型、人形)遭受虐待的视频。2)数据收集:通过自述问卷测量参与者的情绪和恐怖感;通过面部表情自动分析获取生理数据;通过定性访谈收集参与者对虐待行为的看法和道德判断。3)数据分析:对问卷数据进行统计分析,比较不同组别之间的差异;对生理数据进行分析,识别不同组别之间的面部表情差异;对定性数据进行主题分析,提取参与者的道德推理模式。

关键创新:该研究的关键创新在于:1)将CASA理论和恐怖谷理论扩展到道德领域,探讨了拟人化程度对人类道德判断和保护反应的影响。2)采用混合方法,结合了定量和定性数据,提供了更全面和深入的分析。3)发现恐怖谷效应中的中等拟人化机器人反而更能激发人类的保护欲,挑战了传统的线性关系假设。

关键设计:实验中,三种机器人模型的选择至关重要,需要确保它们在拟人化程度上存在显著差异,并且能够引发参与者的情感反应。面部表情自动分析需要选择合适的算法和参数,以准确识别参与者的情绪表达。定性访谈需要设计开放式问题,鼓励参与者表达自己的真实想法和感受。统计分析需要选择合适的统计方法,以控制潜在的混淆变量,并确保结果的可靠性。

📊 实验亮点

实验结果表明,中等拟人化的双足型机器人引发了最强烈的生理愤怒表达,与恐怖谷效应相符。自述问卷显示,双足型和人形机器人引发的愤怒和内疚感显著高于蜘蛛型机器人。定性分析表明,随着拟人化程度的提高,人们对机器人虐待行为的道德判断从财产损失评估转变为对施虐者品格的谴责,并开始呼吁赋予机器人准动物权利。

🎯 应用场景

该研究成果可应用于机器人伦理设计、人机交互界面优化以及相关法律法规的制定。例如,在设计陪伴型机器人时,应充分考虑拟人化程度对用户情感的影响,避免过度拟人化可能带来的负面效应。此外,研究结果也为机器人虐待行为的法律界定和道德约束提供了参考依据。

📄 摘要(原文)

Robots with anthropomorphic features are increasingly shaping how humans perceive and morally engage with them. Our research investigates how different levels of anthropomorphism influence protective responses to robot abuse, extending the Computers as Social Actors (CASA) and uncanny valley theories into a moral domain. In an experiment, we invite 201 participants to view videos depicting abuse toward a robot with low (Spider), moderate (Two-Foot), or high (Humanoid) anthropomorphism. To provide a comprehensive analysis, we triangulate three modalities: self-report surveys measuring emotions and uncanniness, physiological data from automated facial expression analysis, and qualitative reflections. Findings indicate that protective responses are not linear. The moderately anthropomorphic Two-Foot robot, rated highest in eeriness and "spine-tingling" sensations consistent with the uncanny valley, elicited the strongest physiological anger expressions. Self-reported anger and guilt are significantly higher for both the Two-Foot and Humanoid robots compared to the Spider. Qualitative findings further reveal that as anthropomorphism increases, moral reasoning shifts from technical assessments of property damage to condemnation of the abuser's character, while governance proposals expand from property law to calls for quasi-animal rights and broader societal responsibility. These results suggest that the uncanny valley does not dampen moral concern but paradoxically heightens protective impulses, offering critical implications for robot design, policy, and future legal frameworks.