The Use of Gaze-Derived Confidence of Inferred Operator Intent in Adjusting Safety-Conscious Haptic Assistance

📄 arXiv: 2504.03098v1 📥 PDF

作者: Jeremy D. Webb, Michael Bowman, Songpo Li, Xiaoli Zhang

分类: cs.RO, cs.HC

发布日期: 2025-04-04

备注: 12 pages, 15 figures


💡 一句话要点

提出基于注视推断操作者意图置信度的安全触觉辅助调整方法,提升遥操作机器人控制性能。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control)

关键词: 遥操作机器人 注视跟踪 意图推断 触觉辅助 人机交互

📋 核心要点

  1. 遥操作机器人缺乏触觉反馈和深度感知,导致操作者难以准确控制,影响任务效率和安全性。
  2. 利用操作者的注视信息预测其意图,并根据意图置信度动态调整触觉辅助,使机器人控制更自然。
  3. 实验结果表明,该系统能够提高遥操作的准确性,缩短任务执行时间,并减少操作者失误。

📝 摘要(中文)

在危险或有害环境中,人类无法直接完成任务时,通常采用遥操作机器人。然而,由于缺乏触觉等多种感官反馈以及视频反馈的深度信息不足,操作者与机器人之间存在脱节感,导致遥操作困难。为了解决这个问题,本文提出了一种主动推断操作者意图并提供辅助的系统。该系统利用操作者的注视来直观地指示目标,并在机器人开始操作之前预测意图。此外,一种计算推断意图置信度的新方法被用于调整人机回路控制。系统采用势场法提供指向目标的引导力,并使用安全边界来降低损坏风险。基于意图置信度调整辅助,使控制更加自然,并使机器人能够直观地理解人类主人的意图。初步验证结果表明,该系统能够提高准确性、缩短执行时间并减少操作者错误。

🔬 方法详解

问题定义:遥操作机器人面临的主要问题是操作者缺乏足够的感知反馈,特别是触觉和深度信息,这使得操作者难以准确判断机器人与环境的交互,容易发生碰撞或操作失误。现有的遥操作方法通常依赖于视觉反馈,但视觉反馈的局限性使得操作者难以建立对环境的完整认知。

核心思路:本文的核心思路是利用操作者的注视信息来预测其意图,并根据意图的置信度动态调整机器人提供的触觉辅助。通过注视信息,系统可以提前了解操作者想要操作的目标,从而为机器人提供更智能的辅助,提高操作的准确性和效率。

技术框架:该系统的整体框架包括以下几个主要模块:1) 注视跟踪模块:用于实时跟踪操作者的注视点。2) 意图推断模块:根据注视点预测操作者的意图,例如操作的目标物体。3) 置信度计算模块:计算意图推断的置信度,反映意图预测的准确程度。4) 触觉辅助模块:根据预测的意图和置信度,生成触觉引导力,辅助操作者控制机器人。5) 安全边界模块:设置安全边界,防止机器人与环境发生碰撞。

关键创新:该论文的关键创新在于提出了一种基于注视的意图置信度计算方法,并将其用于动态调整触觉辅助。传统的触觉辅助方法通常是静态的,无法根据操作者的意图进行调整。通过引入意图置信度,系统可以根据操作者的意图和操作环境,自适应地调整触觉辅助的强度和方向,从而提供更智能、更自然的控制体验。

关键设计:在触觉辅助模块中,采用了势场法生成引导力,引导机器人向目标移动。安全边界模块通过设置虚拟力场,防止机器人超出安全区域。意图置信度的计算方法未知,论文中可能未详细描述。触觉辅助的强度和方向根据意图置信度进行调整,具体调整策略未知。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

初步验证结果表明,该系统能够提高遥操作的准确性、缩短执行时间并减少操作者错误。具体的性能数据和对比基线未知,但结果表明基于注视的意图推断和触觉辅助方法是有效的。该研究为提升遥操作机器人的控制性能提供了一种新的思路。

🎯 应用场景

该研究成果可应用于各种遥操作场景,例如:危险环境下的物体操作、医疗手术机器人辅助、深海或太空探索等。通过提升遥操作的准确性和效率,可以降低操作风险,提高任务完成质量,并扩展机器人的应用范围。未来,该技术有望与增强现实等技术结合,为操作者提供更直观、更沉浸式的遥操作体验。

📄 摘要(原文)

Humans directly completing tasks in dangerous or hazardous conditions is not always possible where these tasks are increasingly be performed remotely by teleoperated robots. However, teleoperation is difficult since the operator feels a disconnect with the robot caused by missing feedback from several senses, including touch, and the lack of depth in the video feedback presented to the operator. To overcome this problem, the proposed system actively infers the operator's intent and provides assistance based on the predicted intent. Furthermore, a novel method of calculating confidence in the inferred intent modifies the human-in-the-loop control. The operator's gaze is employed to intuitively indicate the target before the manipulation with the robot begins. A potential field method is used to provide a guiding force towards the intended target, and a safety boundary reduces risk of damage. Modifying these assistances based on the confidence level in the operator's intent makes the control more natural, and gives the robot an intuitive understanding of its human master. Initial validation results show the ability of the system to improve accuracy, execution time, and reduce operator error.