要約
外骨格とリハビリテーション システムは、動きのダイナミクスに適応する高度なヒューマン マシン インターフェイス (HMI) を通じて、人間の筋力と回復力を強化する大きな可能性をもたらします。
ただし、物理情報に基づくニューラル ネットワーク (PINN) のリアルタイム アプリケーションは、固定入力長とサロゲート モデルへの依存によって制限されます。
この研究では、表面筋電図 (sEMG) データを使用して多関節トルクを予測するように設計された、物理学に基づいた新しいゲート型リカレント ネットワーク (PiGRN) を紹介します。
PiGRN モデルは、ゲート リカレント ユニット (GRU) を採用して、時系列の sEMG 入力を多関節運動学と外部負荷に変換し、これらを運動方程式に統合して物理法則との一貫性を確保します。
肘の屈曲伸展課題を実行する 5 人の参加者からの sEMG データを用いた実験検証では、PiGRN モデルが 10 種類の慣れない動きの関節トルクを正確に予測し、RMSE 値が 4.02\% ~ 11.40\%、相関係数が 0.87 ~ 0.98 の範囲であることが示されました。
これらの発見は、PiGRN のリアルタイム外骨格およびリハビリテーションへの応用の可能性を強調しています。
今後の研究では、より多様なデータセットを調査し、筋骨格モデルを改善し、教師なし学習方法を調査する予定です。
要約(オリジナル)
Exoskeletons and rehabilitation systems offer great potential for enhancing human strength and recovery through advanced human-machine interfaces (HMIs) that adapt to movement dynamics. However, the real-time application of physics-informed neural networks (PINNs) is limited by their reliance on fixed input lengths and surrogate models. This study introduces a novel physics-informed Gated Recurrent Network (PiGRN) designed to predict multi-joint torques using surface electromyography (sEMG) data. The PiGRN model employs a Gated Recurrent Unit (GRU) to convert time-series sEMG inputs into multi-joint kinematics and external loads, which are then integrated into an equation of motion to ensure consistency with physical laws. Experimental validation with sEMG data from five participants performing elbow flexion-extension tasks showed that the PiGRN model accurately predicted joint torques for 10 unfamiliar movements, with RMSE values between 4.02\% and 11.40\% and correlation coefficients ranging from 0.87 to 0.98. These findings highlight the PiGRN’s potential for real-time exoskeleton and rehabilitation applications. Future research will explore more diverse datasets, improve musculoskeletal models, and investigate unsupervised learning methods.
arxiv情報
著者 | Rajnish Kumar,Anand Gupta,Suriya Prakash Muthukrishnan,Lalan Kumar,Sitikantha Roy |
発行日 | 2024-08-29 15:09:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google