Personalised Explanations in Long-term Human-Robot Interactions

📄 arXiv: 2507.03049v1 📥 PDF

作者: Ferran Gebellí, Anaís Garrell, Jan-Gerrit Habekost, Séverin Lemaignan, Stefan Wermter, Raquel Ros

分类: cs.RO, cs.AI, cs.HC

发布日期: 2025-07-03

备注: 8 pages. It will be published at RO-MAN 2025


💡 一句话要点

提出个性化解释框架,提升长期人机交互中机器人可理解性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 人机交互 可解释性 个性化解释 用户知识模型 大型语言模型

📋 核心要点

  1. 现有可解释人机交互方法缺乏对用户知识的建模,难以提供个性化的解释。
  2. 提出一种基于用户知识记忆模型的框架,利用大型语言模型调整解释的详细程度。
  3. 实验表明,两阶段架构能有效降低解释的详细程度,提升用户理解效率。

📝 摘要(中文)

在人机交互(HRI)领域,一个根本性的挑战是促进人类对机器人的理解。新兴的可解释人机交互(XHRI)领域研究生成解释并评估其对人机交互影响的方法。以往的研究强调需要个性化解释的详细程度,以提高可用性和理解力。本文提出了一个框架,旨在更新和检索用户知识记忆模型,从而在引用先前获得的知识概念时,能够调整解释的详细程度。在两种不同的场景(医院巡逻机器人和厨房助手机器人)中,评估了基于我们提出的框架并使用大型语言模型(LLM)的三种架构。实验结果表明,一种两阶段架构(首先生成解释,然后对其进行个性化)能够有效地在存在相关用户知识时降低解释的详细程度。

🔬 方法详解

问题定义:论文旨在解决长期人机交互中,机器人如何根据用户的已有知识水平,提供个性化、适宜详细程度的解释,从而提升用户的理解效率和交互体验。现有方法通常采用固定详细程度的解释,忽略了用户知识背景的差异,导致对部分用户而言解释过于冗余或过于简略。

核心思路:论文的核心思路是构建并维护一个用户知识记忆模型,该模型记录了用户已掌握的概念和知识。在生成解释时,框架首先评估用户对相关概念的熟悉程度,然后根据评估结果调整解释的详细程度。对于用户已知的概念,解释会更加简洁;对于用户不熟悉的概念,解释会更加详细。

技术框架:该框架包含以下几个主要模块:1) 用户知识记忆模型:用于存储和更新用户已知的概念和知识。2) 解释生成器:利用大型语言模型(LLM)生成初步的解释。3) 知识评估器:评估用户对解释中涉及概念的熟悉程度,基于用户知识记忆模型进行判断。4) 解释个性化器:根据知识评估器的结果,调整解释的详细程度,生成最终的个性化解释。论文评估了三种基于此框架的架构。

关键创新:该论文的关键创新在于将用户知识记忆模型与大型语言模型相结合,实现了解释的个性化调整。与现有方法相比,该方法能够根据用户的实际知识水平,动态地调整解释的详细程度,从而提供更具针对性和有效性的解释。

关键设计:论文提出了三种架构,其中两阶段架构(先生成解释,再个性化)表现最佳。具体实现细节包括:如何利用LLM生成初步解释,如何设计知识评估器来准确评估用户知识,以及如何根据评估结果调整解释的详细程度。具体的参数设置、损失函数和网络结构等技术细节在论文中未详细说明,属于未知信息。

📊 实验亮点

实验结果表明,两阶段架构在医院巡逻机器人和厨房助手机器人两种场景下,能够有效地在存在相关用户知识时降低解释的详细程度。具体的性能数据和提升幅度在摘要中未明确给出,属于未知信息。但实验验证了该框架的有效性,为个性化解释在人机交互中的应用提供了有力的支持。

🎯 应用场景

该研究成果可广泛应用于各种人机交互场景,例如:辅助机器人、教育机器人、医疗机器人等。通过提供个性化的解释,可以帮助用户更好地理解机器人的行为和决策,从而建立信任感,提高交互效率,并促进人机协作。

📄 摘要(原文)

In the field of Human-Robot Interaction (HRI), a fundamental challenge is to facilitate human understanding of robots. The emerging domain of eXplainable HRI (XHRI) investigates methods to generate explanations and evaluate their impact on human-robot interactions. Previous works have highlighted the need to personalise the level of detail of these explanations to enhance usability and comprehension. Our paper presents a framework designed to update and retrieve user knowledge-memory models, allowing for adapting the explanations' level of detail while referencing previously acquired concepts. Three architectures based on our proposed framework that use Large Language Models (LLMs) are evaluated in two distinct scenarios: a hospital patrolling robot and a kitchen assistant robot. Experimental results demonstrate that a two-stage architecture, which first generates an explanation and then personalises it, is the framework architecture that effectively reduces the level of detail only when there is related user knowledge.