Evaluation of Impression Difference of a Domestic Mobile Manipulator with Autonomous and/or Remote Control in Fetch-and-Carry Tasks
作者: Takashi Yamamoto, Hiroaki Yaguchi, Shohei Kato, Hiroyuki Okada
分类: cs.RO, cs.HC
发布日期: 2025-12-30 (更新: 2026-01-04)
备注: Published in Advanced Robotics (2020). v2 updates Abstract/Comments (metadata only); paper content unchanged. Please cite: Advanced Robotics 34(20):1291-1308, 2020. https://doi.org/10.1080/01691864.2020.1780152
期刊: Advanced Robotics, 34(20):1291-1308, 2020
DOI: 10.1080/01691864.2020.1780152
💡 一句话要点
评估自主与遥控模式下移动操作机器人在取放任务中的用户体验差异
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 人机交互 移动操作机器人 遥操作 自主控制 用户体验 远程干预 人机协作 控制模式
📋 核心要点
- 现有方法缺乏对机器人控制模式(自主、遥控、混合)如何影响用户体验的系统性评估。
- 本文提出用户-机器人-操作员三元组,并结合自然语言和草图界面,实现远程干预和混合控制。
- 实验表明,不同控制模式显著影响用户对亲和力和安全性的感知,为人机协作设计提供指导。
📝 摘要(中文)
服务机器人可以呈现两种不同的控制方式:自主控制和操作员介导的遥控。用户通过同一个物理实体体验这两种方式。本文将这种双重控制结构形式化为“用户-机器人-操作员”三元组,应用于集成了遥操作、自主执行和人机协作远程辅助的自主遥控环境中。在基于语言和多模态界面兴起之前,我们于2020年开发并评估了一个早期原型,该原型结合了自然语言文本聊天和基于草图的界面,支持在机器人的实时摄像头视图上进行手绘图像注释,以支持远程干预。我们使用家用移动操作机器人Human Support Robot (HSR),在符合World Robot Summit 2020规则的测试场地中,评估了三种模式——遥操作、自主控制和自主遥控(代表不同程度的自主性)在受控的取放移动操作任务中的表现。结果表明,用户对亲和力和感知安全性的评价存在系统性的模式依赖性差异,这表明在人机交互(HRI)中,在同一机器人内切换或混合控制方式会显著影响人类的印象。这些发现为设计家庭物理任务中的人机协作移动操作提供了经验指导。
🔬 方法详解
问题定义:论文旨在研究在家庭环境中,移动操作机器人的不同控制模式(自主、遥控、混合)如何影响用户的主观体验,例如亲和力、安全感等。现有方法通常关注机器人性能指标,而忽略了用户体验的差异,这对于实际应用至关重要。
核心思路:论文的核心思路是将机器人控制模式视为一种用户-机器人-操作员三元组的交互关系,通过改变机器人自主程度,并结合自然语言和草图界面进行远程干预,从而探索不同控制模式对用户体验的影响。这种设计强调了人机协作的重要性,并试图找到最佳的控制策略。
技术框架:整体框架包含三个主要模块:1)移动操作机器人(HSR),负责执行取放任务;2)远程操作界面,包括自然语言聊天和草图注释功能,允许操作员进行远程干预;3)控制模式切换模块,实现自主、遥控和混合控制模式的切换。实验流程包括用户观察机器人执行任务,并对不同控制模式下的用户体验进行评价。
关键创新:论文的关键创新在于将机器人控制模式与用户体验联系起来,并提出了用户-机器人-操作员三元组的概念。此外,结合自然语言和草图界面的远程干预方式,为远程协作提供了一种新的交互模式。
关键设计:实验中,三种控制模式的具体实现如下:1)遥操作:用户完全通过遥控界面控制机器人;2)自主控制:机器人完全自主地完成任务;3)自主遥控:机器人自主执行任务,但操作员可以通过远程界面进行干预。用户体验的评价指标包括亲和力、安全感等,通过问卷调查的方式进行收集。
📊 实验亮点
实验结果表明,自主控制模式下用户的亲和力评分最高,而遥控模式下用户的安全感评分最高。自主遥控模式在亲和力和安全感之间取得了较好的平衡。这些结果为设计人机协作移动操作机器人提供了重要的经验指导,表明控制模式的选择会显著影响用户体验。
🎯 应用场景
该研究成果可应用于家庭服务机器人、医疗辅助机器人等领域,提升人机协作效率和用户满意度。通过优化控制模式和交互方式,可以使机器人更好地适应复杂环境,并提供更安全、可靠的服务。未来的研究可以进一步探索更智能的控制策略和更自然的人机交互方式。
📄 摘要(原文)
A single service robot can present two distinct agencies: its onboard autonomy and an operator-mediated agency, yet users experience them through one physical body. We formalize this dual-agency structure as a User-Robot-Operator triad in an autonomous remote-control setting that integrates teleoperation with autonomous execution and human-in-the-loop remote assistance. Prior to the recent surge of language-based and multimodal interfaces, we developed and evaluated an early-stage prototype in 2020 that combined natural-language text chat with a sketch-based interface enabling freehand on-image annotation over the robot's live camera view to support remote intervention. We evaluated three modes - remote control via teleoperation, autonomous control, and autonomous remote control (a hybrid mode representing different levels of autonomy) - in controlled fetch-and-carry mobile manipulation tasks using a domestic mobile manipulator, the Human Support Robot (HSR), on a World Robot Summit 2020 rule-compliant test field. The results show systematic mode-dependent differences in user-rated affinity and perceived security, indicating that switching or blending agency within one robot measurably shapes human impressions in Human-Robot Interaction (HRI). These findings provide empirical guidance for designing human-in-the-loop mobile manipulation in domestic physical tasks.