Vision-Guided Grasp Planning for Prosthetic Hands in Unstructured Environments

📄 arXiv: 2512.06517v1 📥 PDF

作者: Shifa Sulaiman, Akash Bachhar, Ming Shen, Simon Bøgh

分类: cs.RO

发布日期: 2025-12-06


💡 一句话要点

提出一种视觉引导的假肢手抓取规划算法,适用于非结构化环境。

🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱三:空间感知 (Perception & SLAM)

关键词: 假肢手 抓取规划 视觉引导 RRT* 逆运动学 非结构化环境 机器人操作

📋 核心要点

  1. 现有假肢技术在复杂环境下与物体的自然交互能力不足,缺乏足够的灵活性和适应性。
  2. 该论文提出一种视觉引导的抓取算法,通过感知、规划和控制的集成,实现假肢手的灵巧操作。
  3. 该方法在仿真和Linker Hand O7平台上进行了验证,证明了其在非结构化环境中实时适应性的能力。

📝 摘要(中文)

本文提出了一种视觉引导的假肢手抓取算法,旨在提升假肢在动态环境中与各种物体交互的自然性。该算法集成了感知、规划和控制,以实现灵巧的操作。系统通过相机捕获场景,并采用基于包围盒层次结构(BVH)的视觉算法分割目标物体并确定其包围盒。然后,通过使用快速探索随机树星算法(RRT*)生成候选轨迹来计算抓取接触点,并基于轨迹与物体点云之间的最小欧几里得距离选择指尖末端姿势。每个手指的抓取姿势独立确定,从而实现自适应的、特定于物体的配置。采用基于阻尼最小二乘(DLS)的逆运动学求解器来计算相应的关节角度,随后将其传输到手指执行器以执行抓取动作。该模块化流程支持每个手指的抓取规划,并支持在非结构化环境中的实时适应性。该方法已在仿真中验证,并在Linker Hand O7平台上进行了实验集成。

🔬 方法详解

问题定义:现有假肢手在非结构化环境中难以准确、高效地抓取物体。主要痛点在于缺乏对环境和物体形状的有效感知,以及难以规划出适应不同物体的抓取姿势。传统方法通常依赖于预定义的抓取策略,难以应对复杂多变的场景。

核心思路:该论文的核心思路是利用视觉信息引导假肢手的抓取规划。通过视觉感知获取物体的信息,然后基于这些信息规划出每个手指的抓取姿势,从而实现自适应的抓取。这种方法能够根据物体的形状和环境的约束,动态调整抓取策略,提高抓取的成功率和稳定性。

技术框架:整体框架包含以下几个主要模块:1) 视觉感知模块:使用相机捕获场景,并利用基于BVH的算法分割目标物体,确定其包围盒。2) 抓取规划模块:使用RRT*算法生成候选轨迹,并基于轨迹与物体点云之间的最小距离选择指尖末端姿势。每个手指的抓取姿势独立规划。3) 逆运动学求解模块:使用DLS算法计算对应于指尖姿势的关节角度。4) 控制模块:将关节角度发送给手指执行器,控制假肢手完成抓取动作。

关键创新:该论文的关键创新在于提出了一种基于视觉信息的、 per-finger 的抓取规划方法。与传统方法相比,该方法能够根据物体的形状和环境的约束,独立地规划每个手指的抓取姿势,从而实现更灵活、更稳定的抓取。此外,使用BVH加速物体分割,RRT*生成候选轨迹,DLS求解逆运动学,保证了算法的实时性。

关键设计:在抓取规划模块中,RRT*算法的参数设置会影响轨迹的生成效率和质量。选择合适的步长和采样策略至关重要。在逆运动学求解模块中,DLS算法的阻尼系数需要根据假肢手的具体结构和运动范围进行调整,以避免关节超出运动范围或产生奇异点。

📊 实验亮点

该论文在仿真和Linker Hand O7平台上验证了所提出的视觉引导抓取算法的有效性。实验结果表明,该算法能够成功地规划出适应不同物体的抓取姿势,并在非结构化环境中实现稳定的抓取。虽然论文中没有给出具体的性能数据,但实验验证了该方法在实际应用中的潜力。

🎯 应用场景

该研究成果可应用于各种需要灵巧操作的场景,例如:残疾人辅助、远程操作、自动化装配等。通过视觉引导的抓取规划,假肢手能够更好地适应复杂环境,完成各种精细的操作任务,提高生活质量和工作效率。未来,该技术有望与触觉反馈、力控制等技术相结合,进一步提升假肢手的智能化水平。

📄 摘要(原文)

Recent advancements in prosthetic technology have increasingly focused on enhancing dexterity and autonomy through intelligent control systems. Vision-based approaches offer promising results for enabling prosthetic hands to interact more naturally with diverse objects in dynamic environments. Building on this foundation, the paper presents a vision-guided grasping algorithm for a prosthetic hand, integrating perception, planning, and control for dexterous manipulation. A camera mounted on the set up captures the scene, and a Bounding Volume Hierarchy (BVH)-based vision algorithm is employed to segment an object for grasping and define its bounding box. Grasp contact points are then computed by generating candidate trajectories using Rapidly-exploring Random Tree Star algorithm, and selecting fingertip end poses based on the minimum Euclidean distance between these trajectories and the objects point cloud. Each finger grasp pose is determined independently, enabling adaptive, object-specific configurations. Damped Least Square (DLS) based Inverse kinematics solver is used to compute the corresponding joint angles, which are subsequently transmitted to the finger actuators for execution. This modular pipeline enables per-finger grasp planning and supports real-time adaptability in unstructured environments. The proposed method is validated in simulation, and experimental integration on a Linker Hand O7 platform.