Accessible and Pedagogically-Grounded Explainability for Human-Robot Interaction: A Framework Based on UDL and Symbolic Interfaces
作者: Francisco J. Rodríguez Lera, Raquel Fernández Hernández, Sonia Lopez González, Miguel Angel González-Santamarta, Francisco Jesús Rodríguez Sedano, Camino Fernandez Llamas
分类: cs.RO, cs.HC
发布日期: 2025-04-08
备注: 6 pages, 6 figures
DOI: 10.1109/RO-MAN63969.2025.11217773
💡 一句话要点
提出基于UDL和符号界面的可访问且具有教学意义的人机交互解释框架
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 人机交互 可解释性 通用设计学习 符号界面 多模态 教育机器人 辅助机器人
📋 核心要点
- 现有HRI系统在为具有不同认知能力的用户提供可解释性方面存在不足,难以实现有效的沟通和理解。
- 该框架结合UDL和UD原则,利用符号界面(Asterics Grid和ARASAAC象形图)实现多模态解释,促进人与机器人之间的心理模型对齐。
- 通过示例验证了框架在教育和辅助机器人领域的有效性,并强调了人类中介在促进共享理解中的重要作用。
📝 摘要(中文)
本文提出了一种新颖的、可访问且具有教学意义的机器人可解释性框架,旨在支持与具有不同认知、沟通或学习需求的用户进行人机交互(HRI)。我们结合了通用设计学习(UDL)和通用设计(UD)的原则,以及符号通信策略,以促进人类和机器人之间心理模型的对齐。我们的方法采用Asterics Grid和ARASAAC象形图作为多模态、可解释的前端,并集成了一个轻量级的HTTP-to-ROS 2桥,从而实现实时交互和解释触发。我们强调,可解释性不是单向函数,而是一个双向过程,人类理解和机器人透明度必须共同发展。我们进一步认为,在教育或辅助环境中,人类中介(例如,教师)的作用对于支持共同理解至关重要。我们通过多模态解释板的示例验证了我们的框架,并讨论了如何将其扩展到教育、辅助机器人和包容性人工智能中的不同场景。
🔬 方法详解
问题定义:论文旨在解决人机交互中,机器人缺乏针对不同认知能力用户的可解释性问题。现有方法难以有效地向认知、沟通或学习能力存在差异的用户解释机器人的行为和决策,导致用户难以理解和信任机器人。这阻碍了机器人在教育、辅助等领域的应用。
核心思路:论文的核心思路是结合通用设计学习(UDL)和通用设计(UD)的原则,设计一个可访问的、多模态的解释框架。通过符号界面(Asterics Grid和ARASAAC象形图)将机器人的内部状态和决策过程以易于理解的方式呈现给用户,从而促进人与机器人之间的心理模型对齐。同时,强调可解释性是一个双向过程,需要人类和机器人共同发展。
技术框架:该框架包含以下主要模块:1) 多模态前端:使用Asterics Grid和ARASAAC象形图构建用户界面,提供视觉、听觉等多种解释方式。2) HTTP-to-ROS 2桥:实现用户界面与机器人操作系统ROS 2之间的通信,允许用户实时触发解释请求。3) 解释生成模块:根据机器人的状态和用户的请求,生成相应的解释信息,并将其转换为多模态形式。4) 人类中介接口:为教师或辅助人员提供接口,以便他们可以介入并帮助用户理解机器人的解释。
关键创新:该论文的关键创新在于:1) 将UDL和UD原则应用于机器人可解释性设计,关注不同认知能力用户的需求。2) 使用符号界面作为多模态解释的载体,降低了理解门槛。3) 强调可解释性的双向性和人类中介的重要性,提出了一个更全面的人机交互解释框架。
关键设计:Asterics Grid和ARASAAC象形图的选择是关键设计之一,它们提供了标准化的、易于理解的符号表示。HTTP-to-ROS 2桥的设计保证了实时性和灵活性。解释生成模块需要根据具体的机器人应用进行定制,选择合适的解释策略和多模态表示方法。框架还考虑了用户反馈机制,允许用户对解释的有效性进行评价,从而不断改进解释质量。
🖼️ 关键图片
📊 实验亮点
论文通过多模态解释板的示例验证了框架的有效性。实验表明,使用符号界面可以显著提高用户对机器人行为的理解程度。此外,研究还发现,人类中介在帮助用户理解复杂解释方面发挥着重要作用。虽然论文没有提供具体的性能数据,但其概念验证为未来的定量评估奠定了基础。
🎯 应用场景
该研究成果可应用于教育机器人、辅助机器人、医疗机器人等领域,提升机器人与认知障碍人士、儿童等群体的交互体验。通过提供可访问且易于理解的解释,增强用户对机器人的信任感和控制感,促进机器人在更广泛场景下的应用。未来,该框架可扩展到其他类型的机器人和用户群体,推动包容性人工智能的发展。
📄 摘要(原文)
This paper presents a novel framework for accessible and pedagogically-grounded robot explainability, designed to support human-robot interaction (HRI) with users who have diverse cognitive, communicative, or learning needs. We combine principles from Universal Design for Learning (UDL) and Universal Design (UD) with symbolic communication strategies to facilitate the alignment of mental models between humans and robots. Our approach employs Asterics Grid and ARASAAC pictograms as a multimodal, interpretable front-end, integrated with a lightweight HTTP-to-ROS 2 bridge that enables real-time interaction and explanation triggering. We emphasize that explainability is not a one-way function but a bidirectional process, where human understanding and robot transparency must co-evolve. We further argue that in educational or assistive contexts, the role of a human mediator (e.g., a teacher) may be essential to support shared understanding. We validate our framework with examples of multimodal explanation boards and discuss how it can be extended to different scenarios in education, assistive robotics, and inclusive AI.