Sense and Sensibility: What makes a social robot convincing to high-school students?

📄 arXiv: 2506.12507v1 📥 PDF

作者: Pablo Gonzalez-Oliveras, Olov Engwall, Ali Reza Majlesi

分类: cs.RO

发布日期: 2025-06-14

备注: 14 pages; 8 figures; 3 tables; RSS 2025 (Robotics: Science & Systems)


💡 一句话要点

研究表明社交教育机器人说服力受学生经验和机器人确定性影响

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 社交机器人 教育机器人 确定性表达 学生决策 人工智能伦理

📋 核心要点

  1. 研究核心问题是社交机器人如何影响高中生的决策,以及机器人确定性表达的影响。
  2. 论文通过控制机器人确定性程度,观察学生对机器人答案的认同度及主观说服力。
  3. 实验表明,学生易受机器人影响,机器人越确定,学生越认同,但需警惕误导风险。

📝 摘要(中文)

本研究通过对40名高中生进行实验,证明了社交教育机器人对学生在电路问题决策方面具有显著影响。学生们已经学习过相关理论,机器人针对八个是非题给出答案,其中六个正确,两个错误。结果显示,75%的学生被机器人说服,表现超出预期,正确时为积极影响,错误时为消极影响。更频繁使用大型语言模型的学生更容易受到机器人立场的影响,尤其是在机器人给出错误答案的两个简单问题上,这表明对人工智能的熟悉程度可能会增加对人工智能错误信息的易感性。此外,我们还研究了机器人确定性的不同程度(通过语义、韵律和面部信号表达)如何影响学生对机器人答案的认同以及他们认为机器人有多令人信服。当机器人表现出确定时,学生在94.4%的情况下认同机器人的答案,中性时为82.6%,不确定时为71.4%。因此,所有条件下的认同度都很高,突出了学生普遍容易接受机器人的立场,但不确定条件下的认同度明显低于确定条件。测试后的问卷调查结果进一步表明,学生认为机器人表现出确定性时最令人信服。这些发现强调,教育机器人需要根据其传达信息的可靠性来调整其确定性的表达,以促进学生的批判性思维并减少不当影响。

🔬 方法详解

问题定义:本研究旨在探究社交教育机器人对高中生学习决策的影响,特别是机器人表达的确定性程度如何影响学生的判断。现有研究缺乏对机器人确定性表达与学生接受度之间关系的深入理解,并且忽略了学生自身AI使用经验可能带来的影响。

核心思路:核心思路是通过实验操纵社交机器人在回答电路问题时的确定性程度(确定、中性和不确定),并测量学生对机器人答案的认同度以及主观感受到的说服力。同时,考虑学生使用大型语言模型的经验作为潜在的调节变量。

技术框架:实验流程如下:1) 招募40名高中生;2) 学生学习电路相关知识;3) 机器人提出8个是非题,并给出答案(6个正确,2个错误),同时操纵机器人的确定性表达;4) 记录学生对机器人答案的认同情况;5) 通过问卷调查评估学生对机器人说服力的主观感受;6) 分析学生使用大型语言模型的经验与实验结果之间的关系。

关键创新:本研究的关键创新在于:1) 系统性地研究了社交机器人确定性表达对学生决策的影响;2) 考虑了学生使用大型语言模型的经验作为调节变量,揭示了AI使用经验可能带来的潜在风险;3) 强调了教育机器人需要根据信息可靠性调整确定性表达的重要性。

关键设计:机器人的确定性表达通过语义(例如使用“我确定”或“我不太确定”等短语)、韵律(例如语速、音调变化)和面部信号(例如眉毛运动、眼神交流)进行控制。实验中,每个学生都会经历所有三种确定性条件。统计分析采用方差分析和回归分析,以评估确定性程度和学生AI使用经验对学生认同度和说服力的影响。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,学生对机器人的认同度随着机器人确定性的增加而提高(确定:94.4%,中性:82.6%,不确定:71.4%)。使用大型语言模型经验丰富的学生更容易受到机器人错误答案的影响。问卷调查显示,学生认为机器人表现出确定性时最令人信服。

🎯 应用场景

该研究成果可应用于教育机器人设计,帮助开发者设计更具教育意义且不易误导学生的机器人。通过调整机器人确定性表达,可以促进学生的批判性思维,避免学生盲目信任机器人。此外,该研究也提醒人们关注AI使用经验对信息接受的影响,有助于提高公众对AI伦理的认识。

📄 摘要(原文)

This study with 40 high-school students demonstrates the high influence of a social educational robot on students' decision-making for a set of eight true-false questions on electric circuits, for which the theory had been covered in the students' courses. The robot argued for the correct answer on six questions and the wrong on two, and 75% of the students were persuaded by the robot to perform beyond their expected capacity, positively when the robot was correct and negatively when it was wrong. Students with more experience of using large language models were even more likely to be influenced by the robot's stance -- in particular for the two easiest questions on which the robot was wrong -- suggesting that familiarity with AI can increase susceptibility to misinformation by AI. We further examined how three different levels of portrayed robot certainty, displayed using semantics, prosody and facial signals, affected how the students aligned with the robot's answer on specific questions and how convincing they perceived the robot to be on these questions. The students aligned with the robot's answers in 94.4% of the cases when the robot was portrayed as Certain, 82.6% when it was Neutral and 71.4% when it was Uncertain. The alignment was thus high for all conditions, highlighting students' general susceptibility to accept the robot's stance, but alignment in the Uncertain condition was significantly lower than in the Certain. Post-test questionnaire answers further show that students found the robot most convincing when it was portrayed as Certain. These findings highlight the need for educational robots to adjust their display of certainty based on the reliability of the information they convey, to promote students' critical thinking and reduce undue influence.