Simultaneous Locomotion Mode Classification and Continuous Gait Phase Estimation for Transtibial Prostheses
作者: Ryan Posh, Shenggao Li, Patrick Wensing
分类: cs.RO
发布日期: 2024-11-12
💡 一句话要点
针对经胫假肢,提出一种同步进行步态模式分类和连续步态相位估计的高效算法。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 经胫假肢 步态模式分类 步态相位估计 可穿戴机器人 运动意图识别
📋 核心要点
- 可穿戴机器人(如经胫假肢)需要识别和分类人类的运动模式,尤其需要准确分类步态模式和估计步态相位。
- 该论文提出一种新算法,能够同时预测步态模式和步态相位,该算法具有可解释性强、计算效率高的优点。
- 实验结果表明,该算法在健全人和假肢使用者的数据上均表现出高分类准确率和低步态相位误差,且计算效率高。
📝 摘要(中文)
本文提出了一种新颖、可解释且计算高效的算法,用于同时预测步态模式和步态相位,旨在为经胫假肢等可穿戴机器人提供流畅的控制。该算法利用健全人和经胫假肢的数据,测试了七种步态模式,包括慢速、中速和快速水平行走(0.6、0.8 和 1.0 米/秒)、坡道上/下行(5 度)以及楼梯上/下行(20 厘米高度)。健全人和假肢条件下的总体分类准确率分别为 99.1% 和 99.3%。所有数据的平均步态相位误差小于 4%。由于利用了数据的结构,计算效率达到每时间步 2.91 微秒。该算法的时间复杂度随步态模式数量 M 和每个步态周期样本数 N 呈 O(N·M) 比例增长。这种效率和高精度可以适应更大的步态模式集合(在开源腿部假肢上约为 700 种),以处理个体在日常生活中进行的各种活动。
🔬 方法详解
问题定义:经胫假肢的控制需要准确识别用户的运动意图,即步态模式分类和步态相位估计。现有方法可能存在计算复杂度高、难以适应多种步态模式或精度不足等问题,限制了假肢的实时性和自然性。
核心思路:该论文的核心思路是设计一种计算高效且可解释的算法,能够同步进行步态模式分类和步态相位估计。通过利用数据的结构特性,降低算法的计算复杂度,使其能够适应更多的步态模式。
技术框架:该算法的整体框架未知,但可以推断其包含以下主要模块:数据采集模块(传感器数据)、特征提取模块(提取与步态模式和相位相关的特征)、分类与估计模块(同步进行步态模式分类和步态相位估计)、控制输出模块(将结果用于假肢控制)。
关键创新:该算法的关键创新在于其同步预测步态模式和步态相位的能力,以及其高计算效率。通过利用数据的结构,算法的时间复杂度较低,使其能够适应更多的步态模式。此外,算法的可解释性也是一个重要的优势,有助于理解算法的决策过程。
关键设计:论文中没有详细描述算法的关键设计细节,例如具体的特征提取方法、分类器类型、损失函数等。但是,论文强调了利用数据结构来提高计算效率,这可能涉及到特定的数据表示或算法优化技术。具体的参数设置和网络结构未知。
🖼️ 关键图片
📊 实验亮点
该算法在七种步态模式下实现了高分类准确率,健全人和假肢条件下的总体分类准确率分别为 99.1% 和 99.3%。平均步态相位误差小于 4%。更重要的是,该算法的计算效率非常高,达到每时间步 2.91 微秒,这意味着它可以在实时控制系统中应用。该算法的时间复杂度为 O(N·M),表明其具有良好的可扩展性。
🎯 应用场景
该研究成果可应用于经胫假肢等可穿戴机器人的控制系统中,提高假肢的运动性能和用户体验。通过准确识别用户的运动意图,假肢可以更自然、更流畅地响应用户的动作,从而提高用户的活动能力和生活质量。该算法的高效性使其有望在实时控制系统中得到应用,并为开发更智能、更自适应的假肢提供技术支持。
📄 摘要(原文)
Recognizing and identifying human locomotion is a critical step to ensuring fluent control of wearable robots, such as transtibial prostheses. In particular, classifying the intended locomotion mode and estimating the gait phase are key. In this work, a novel, interpretable, and computationally efficient algorithm is presented for simultaneously predicting locomotion mode and gait phase. Using able-bodied (AB) and transtibial prosthesis (PR) data, seven locomotion modes are tested including slow, medium, and fast level walking (0.6, 0.8, and 1.0 m/s), ramp ascent/descent (5 degrees), and stair ascent/descent (20 cm height). Overall classification accuracy was 99.1$\%$ and 99.3$\%$ for the AB and PR conditions, respectively. The average gait phase error across all data was less than 4$\%$. Exploiting the structure of the data, computational efficiency reached 2.91 $μ$s per time step. The time complexity of this algorithm scales as $O(N\cdot M)$ with the number of locomotion modes $M$ and samples per gait cycle $N$. This efficiency and high accuracy could accommodate a much larger set of locomotion modes ($\sim$ 700 on Open-Source Leg Prosthesis) to handle the wide range of activities pursued by individuals during daily living.