Real-Time Prediction of Lower Limb Joint Kinematics, Kinetics, and Ground Reaction Force using Wearable Sensors and Machine Learning

📄 arXiv: 2601.18494v1 📥 PDF

作者: Josée Mallah, Yu Zhu, Kailang Xu, Gurvinder S. Virk, Shaoping Bai, Luigi G. Occhipinti

分类: eess.SY

发布日期: 2026-01-26


💡 一句话要点

提出基于可穿戴传感器和机器学习的实时下肢运动学、动力学和地面反作用力预测框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 可穿戴传感器 机器学习 步态分析 运动学 动力学 地面反作用力 深度学习 ResNet

📋 核心要点

  1. 生物力学中步态分析至关重要,但传统数据采集方法耗时且成本高昂,限制了其应用。
  2. 本研究提出一种基于可穿戴传感器的实时运动捕捉框架,利用机器学习算法预测下肢运动学和动力学参数。
  3. 该框架在预测精度和延迟方面表现出色,为生物反馈等应用提供了可能,具有重要的实际意义。

📝 摘要(中文)

本文提出了一种基于无线可穿戴传感器和机器学习算法的实时、多模态、高采样率下肢运动捕捉框架。该框架使用随机森林算法从IMU数据中估计关节角度,使用仪器化鞋垫预测地面反作用力(GRF),并使用基于ResNet-16架构的深度学习方法,从关节角度和GRF中预测关节力矩。与文献相比,所有三个模型都达到了良好的精度。对于20秒的输入数据,预测以1 kHz的频率记录,且延迟仅为23毫秒。该工作完全依赖于可穿戴传感器,覆盖了所有五个主要的下肢关节,并以最小的延迟提供了GRF、关节角度和力矩的多模态综合估计,适用于生物反馈应用。

🔬 方法详解

问题定义:现有步态分析的金标准方法,如光学动作捕捉系统和测力台,存在成本高、实验室环境限制等问题,难以应用于日常环境和长时间监测。因此,需要一种低成本、便携式、可用于实时步态分析的解决方案。

核心思路:利用可穿戴传感器(IMU和仪器化鞋垫)采集运动数据,并结合机器学习算法,建立从传感器数据到关节角度、地面反作用力和关节力矩的映射关系。通过这种方式,可以实现对下肢运动学和动力学参数的实时、准确预测。

技术框架:该框架包含三个主要模块:1) 基于IMU数据的关节角度预测模块,使用随机森林算法;2) 基于仪器化鞋垫的地面反作用力(GRF)预测模块;3) 基于关节角度和GRF的关节力矩预测模块,使用基于ResNet-16架构的深度学习模型。整个流程是:传感器数据 -> 关节角度/GRF -> 关节力矩。

关键创新:该研究的关键创新在于:1) 提出了一个完全基于可穿戴传感器的下肢运动捕捉系统,摆脱了对实验室环境的依赖;2) 实现了对所有五个主要下肢关节的运动学和动力学参数的实时、多模态综合估计;3) 利用深度学习方法,提高了关节力矩预测的准确性。与传统方法相比,该方法具有成本低、便携性好、实时性高等优点。

关键设计:关节角度预测模块使用随机森林算法,输入为IMU数据,输出为关节角度。地面反作用力预测模块使用仪器化鞋垫采集压力数据,并建立压力数据与GRF之间的映射关系。关节力矩预测模块使用ResNet-16架构的深度学习模型,输入为关节角度和GRF,输出为关节力矩。模型训练采用监督学习方法,损失函数为均方误差(MSE)。数据以1kHz采样,系统延迟为23ms。

📊 实验亮点

该研究提出的框架实现了对下肢运动学和动力学参数的实时、准确预测。实验结果表明,该框架在关节角度、地面反作用力和关节力矩的预测方面都达到了良好的精度,且预测延迟仅为23毫秒。与现有方法相比,该框架具有成本低、便携性好、实时性高等优点,为生物反馈等应用提供了可能。

🎯 应用场景

该研究成果可广泛应用于步态分析、运动康复、运动训练、生物反馈等领域。例如,可以用于评估患者的步态特征,制定个性化的康复计划;可以用于监测运动员的运动状态,优化训练方案;还可以用于开发基于生物反馈的运动辅助设备,提高运动表现。

📄 摘要(原文)

Walking is a key movement of interest in biomechanics, yet gold-standard data collection methods are time- and cost-expensive. This paper presents a real-time, multimodal, high sample rate lower-limb motion capture framework, based on wireless wearable sensors and machine learning algorithms. Random Forests are used to estimate joint angles from IMU data, and ground reaction force (GRF) is predicted from instrumented insoles, while joint moments are predicted from angles and GRF using deep learning based on the ResNet-16 architecture. All three models achieve good accuracy compared to literature, and the predictions are logged at 1 kHz with a minimal delay of 23 ms for 20s worth of input data. The present work fully relies on wearable sensors, covers all five major lower limb joints, and provides multimodal comprehensive estimations of GRF, joint angles, and moments with minimal delay suitable for biofeedback applications.