Assistance-Seeking in Human-Supervised Autonomy: Role of Trust and Secondary Task Engagement (Extended Version)

📄 arXiv: 2405.20118v3 📥 PDF

作者: Dong Hae Mangalindan, Vaibhav Srivastava

分类: cs.RO, eess.SY

发布日期: 2024-05-30 (更新: 2024-10-27)


💡 一句话要点

提出基于信任和次要任务参与度的人机协作自主系统中辅助请求策略

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 人机协作 辅助请求 信任建模 线性动态系统 模型预测控制

📋 核心要点

  1. 现有方法缺乏对人类信任和参与度动态变化的建模,难以在人机协作中做出最优决策。
  2. 论文提出基于线性动态系统建模人类信任和参与度,并结合人类行为模型预测人类依赖机器人的概率。
  3. 实验结果表明,基于模型预测控制设计的辅助请求策略,在人机协作任务中优于基线策略。

📝 摘要(中文)

本研究采用双重任务范式,探讨了机器人行为、性能以及引入次要任务如何影响人类的信任和参与度。实验中,人类监督者在执行目标跟踪任务的同时,监督移动机械臂执行物体收集任务。机器人可以选择自主收集物体或请求人类协助。人类监督者也可以选择信任或中断机器人。利用初步实验数据,我们使用线性动态系统(LDS)对人类信任和参与度的动态进行建模。此外,我们开发了一个人类行为模型来定义人类对机器人的依赖概率。该模型表明,在高复杂度的收集任务中,当参与者的信任和参与度较低时,他们更可能中断机器人。我们使用模型预测控制(MPC)设计了一种最优的辅助请求策略。评估实验表明,对于大多数参与者,MPC策略的性能优于基线策略。

🔬 方法详解

问题定义:论文旨在解决人机协作自主系统中,机器人如何有效地请求人类辅助的问题。现有方法通常依赖于预定义的规则或简单的阈值判断,忽略了人类监督者的信任程度和参与度动态变化,导致协作效率低下,甚至影响任务完成质量。特别是在复杂任务场景下,人类监督者同时承担其他任务时,这种问题会更加突出。

核心思路:论文的核心思路是将人类的信任和参与度建模为动态变化的变量,并利用这些变量来指导机器人的辅助请求策略。通过建立人类行为模型,预测人类对机器人的依赖程度,从而使机器人能够根据人类的状态和任务的复杂性,智能地决定何时请求辅助,以及如何请求辅助。

技术框架:整体框架包含以下几个主要模块:1) 数据采集模块:通过实验收集人类在双重任务场景下与机器人交互的数据,包括机器人行为、人类操作、以及任务性能等。2) 信任和参与度建模模块:使用线性动态系统(LDS)对人类的信任和参与度进行建模,捕捉其随时间变化的动态特性。3) 人类行为模型:基于收集到的数据,建立人类行为模型,预测人类对机器人的依赖概率。4) 辅助请求策略设计模块:利用模型预测控制(MPC)方法,设计最优的辅助请求策略,该策略以最大化任务完成效率为目标,同时考虑人类的信任和参与度。

关键创新:论文的关键创新在于将人类的信任和参与度动态建模,并将其融入到机器人的辅助请求策略设计中。与传统的静态规则或阈值方法相比,该方法能够更好地适应人类的状态变化和任务的复杂性,从而实现更高效、更自然的人机协作。此外,使用线性动态系统和模型预测控制方法,为解决人机协作中的决策问题提供了一种新的思路。

关键设计:线性动态系统(LDS)的状态变量包括人类的信任度和参与度,观测变量包括机器人的行为和任务性能。人类行为模型采用逻辑回归模型,输入特征包括信任度、参与度、任务复杂度等,输出为人类中断机器人的概率。模型预测控制(MPC)的目标函数包括任务完成时间和人类干预次数,约束条件包括机器人的运动学约束和人类行为模型的预测结果。MPC的预测时域和控制时域需要根据具体任务进行调整。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,基于模型预测控制(MPC)设计的辅助请求策略,在物体收集任务中,对于大多数参与者,其性能优于基线策略。具体来说,MPC策略能够显著减少人类的干预次数,同时保持较高的任务完成效率。这表明该方法能够有效地平衡任务性能和人类的信任度,实现更高效的人机协作。

🎯 应用场景

该研究成果可应用于各种人机协作场景,例如:智能制造、医疗机器人、搜索救援等。通过理解和预测人类的信任和参与度,机器人可以更好地与人类协同工作,提高工作效率,降低错误率,并提升人类用户体验。未来,该研究可以进一步扩展到多机器人协作、远程操作等领域,实现更智能、更安全的人机交互。

📄 摘要(原文)

Using a dual-task paradigm, we explore how robot actions, performance, and the introduction of a secondary task influence human trust and engagement. In our study, a human supervisor simultaneously engages in a target-tracking task while supervising a mobile manipulator performing an object collection task. The robot can either autonomously collect the object or ask for human assistance. The human supervisor also has the choice to rely upon or interrupt the robot. Using data from initial experiments, we model the dynamics of human trust and engagement using a linear dynamical system (LDS). Furthermore, we develop a human action model to define the probability of human reliance on the robot. Our model suggests that participants are more likely to interrupt the robot when their trust and engagement are low during high-complexity collection tasks. Using Model Predictive Control (MPC), we design an optimal assistance-seeking policy. Evaluation experiments demonstrate the superior performance of the MPC policy over the baseline policy for most participants.