Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks
作者: Marco Matarese, Francesco Rea, Katharina J. Rohlfing, Alessandra Sciutti
分类: cs.AI, cs.HC, cs.RO
发布日期: 2024-11-15
💡 一句话要点
探索可解释虚拟/机器人助手在实践学习任务中的影响,强调容错学习的重要性
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 人机协作 可解释人工智能 实践学习 机器人助手 虚拟助手 伙伴感知解释 自动化辅导 容错学习
📋 核心要点
- 人机协作决策中,AI助手的可解释性对人类行为的影响尚不明确,尤其是在实践学习场景下。
- 该研究比较了经典解释和伙伴感知解释对人类在实践学习任务中的影响,旨在理解不同解释方式的效果。
- 实验结果表明,伙伴感知解释的影响因AI助手类型而异,且独立学习者知识掌握优于XAI辅助学习者。
📝 摘要(中文)
本研究探讨了在人与人工智能(AI)助手协同决策过程中,AI助手提供的可解释性建议对人类行为和表现的影响。研究比较了经典解释和伙伴感知解释对人类在实践学习任务中的影响。参与者被分为三组:与计算机交互组、与人形机器人交互组以及无辅助组。结果表明,伙伴感知解释对参与者的影响因AI助手的类型而异。与计算机交互的参与者缩短了任务完成时间,而与人形机器人交互的参与者更倾向于听从机器人的建议,但并未减少完成时间。有趣的是,独立完成学习任务的参与者比那些接受可解释AI(XAI)辅助的参与者表现出更强的知识掌握能力。这些发现提出了深刻的问题,并对自动化辅导和人机协作具有重要意义。
🔬 方法详解
问题定义:该论文旨在研究在实践学习任务中,可解释的人工智能(XAI)助手,特别是虚拟助手和机器人助手,如何影响人类的学习过程和表现。现有方法通常关注AI助手的性能提升,而忽略了AI解释对人类学习行为的潜在影响,以及不同类型的AI助手(如虚拟助手和机器人)在提供解释时可能产生的差异。
核心思路:论文的核心思路是比较不同类型的AI解释(经典解释 vs. 伙伴感知解释)以及不同类型的AI助手(计算机 vs. 人形机器人)对人类在实践学习任务中的学习效果的影响。通过让参与者在不同条件下完成任务,并观察他们的行为和表现,来评估不同解释和助手类型的影响。强调“容错”学习,允许并鼓励参与者在学习过程中犯错。
技术框架:该研究采用实验设计,将参与者分为三组:与计算机交互组、与人形机器人交互组以及无辅助组(对照组)。前两组参与者在AI助手的帮助下完成学习任务,AI助手提供两种类型的解释:经典解释和伙伴感知解释。研究记录参与者的任务完成时间、采纳AI建议的程度以及知识掌握程度。
关键创新:该研究的关键创新在于:1) 比较了不同类型的AI解释(经典解释 vs. 伙伴感知解释)对人类学习的影响;2) 区分了不同类型的AI助手(计算机 vs. 人形机器人)在提供解释时的效果;3) 强调了在实践学习中“容错”的重要性,并发现独立学习者在知识掌握方面优于XAI辅助学习者。
关键设计:研究的关键设计包括:1) 伙伴感知解释的设计,使其能够更好地适应人类的学习需求;2) 实验任务的选择,使其能够模拟真实的实践学习场景;3) 实验数据的收集和分析,包括任务完成时间、采纳AI建议的程度以及知识掌握程度的评估。
🖼️ 关键图片
📊 实验亮点
实验结果表明,伙伴感知解释对参与者的影响因AI助手的类型而异。与计算机交互的参与者缩短了任务完成时间,而与人形机器人交互的参与者更倾向于听从机器人的建议,但并未减少完成时间。最重要的是,独立完成学习任务的参与者比那些接受可解释AI(XAI)辅助的参与者表现出更强的知识掌握能力,这挑战了XAI在所有学习场景下的有效性。
🎯 应用场景
该研究成果可应用于自动化辅导系统、人机协作机器人以及其他需要人机交互的领域。通过理解不同类型的AI解释和AI助手对人类学习的影响,可以设计更有效的AI辅助学习工具,提高学习效率和知识掌握程度。此外,该研究强调的“容错”学习理念也对教育实践具有指导意义。
📄 摘要(原文)
Collaborative decision-making with artificial intelligence (AI) agents presents opportunities and challenges. While human-AI performance often surpasses that of individuals, the impact of such technology on human behavior remains insufficiently understood, primarily when AI agents can provide justifiable explanations for their suggestions. This study compares the effects of classic vs. partner-aware explanations on human behavior and performance during a learning-by-doing task. Three participant groups were involved: one interacting with a computer, another with a humanoid robot, and a third one without assistance. Results indicated that partner-aware explanations influenced participants differently based on the type of artificial agents involved. With the computer, participants enhanced their task completion times. At the same time, those interacting with the humanoid robot were more inclined to follow its suggestions, although they did not reduce their timing. Interestingly, participants autonomously performing the learning-by-doing task demonstrated superior knowledge acquisition than those assisted by explainable AI (XAI). These findings raise profound questions and have significant implications for automated tutoring and human-AI collaboration.