Predicting Continuous Locomotion Modes via Multidimensional Feature Learning from sEMG

要約

歩行補助装置には、さまざまな移動モード間のスムーズな移行を保証するための適応制御方法が必要です。
この目的のために、人間の移動モード (平地歩行や階段の上り下りなど) を事前に検出することは、このようなロボット システムの知能と透明性を向上させるために重要です。
この研究では、表面筋電図 (sEMG) 信号から空間、時間、および周波数次元で統合された特徴抽出を行うために設計された統合エンドツーエンド深層学習モデルである Deep-STF を提案します。
私たちのモデルは、100 ~ 500 ミリ秒の範囲のさまざまな予測時間間隔で、9 つの移動モードと 15 の遷移の正確かつ堅牢な連続予測を可能にします。
さらに、予測効率を定量化するための明確な指標として「安定予測時間」の概念を導入しました。
この用語は、モード遷移の一貫した正確な予測が行われる期間を指し、5 回目の正しい予測の時点から、タスク遷移につながる重大なイベントの発生まで測定されます。
安定予測時間と予測時間のこの区別は、モード遷移予測の精度と信頼性に対する当社の焦点を強調するため、極めて重要です。
実験結果は、sEMG データのみに依存した、多様な移動モードと遷移にわたる Deep-STP の最先端の予測パフォーマンスを示しました。
100 ミリ秒先を予測する場合、Deep-STF は CNN や他の機械学習技術を上回り、96.48% という優れた平均予測精度を達成しました。
500 ミリ秒の予測範囲を延長しても、精度は 93.00% までわずかに低下するだけでした。
次に来る遷移を検出するための平均安定予測時間は、100 ~ 500 ミリ秒の時間進行全体で 28.15 ~ 372.21 ミリ秒の範囲でした。

要約(オリジナル)

Walking-assistive devices require adaptive control methods to ensure smooth transitions between various modes of locomotion. For this purpose, detecting human locomotion modes (e.g., level walking or stair ascent) in advance is crucial for improving the intelligence and transparency of such robotic systems. This study proposes Deep-STF, a unified end-to-end deep learning model designed for integrated feature extraction in spatial, temporal, and frequency dimensions from surface electromyography (sEMG) signals. Our model enables accurate and robust continuous prediction of nine locomotion modes and 15 transitions at varying prediction time intervals, ranging from 100 to 500 ms. In addition, we introduced the concept of ‘stable prediction time’ as a distinct metric to quantify prediction efficiency. This term refers to the duration during which consistent and accurate predictions of mode transitions are made, measured from the time of the fifth correct prediction to the occurrence of the critical event leading to the task transition. This distinction between stable prediction time and prediction time is vital as it underscores our focus on the precision and reliability of mode transition predictions. Experimental results showcased Deep-STP’s cutting-edge prediction performance across diverse locomotion modes and transitions, relying solely on sEMG data. When forecasting 100 ms ahead, Deep-STF surpassed CNN and other machine learning techniques, achieving an outstanding average prediction accuracy of 96.48%. Even with an extended 500 ms prediction horizon, accuracy only marginally decreased to 93.00%. The averaged stable prediction times for detecting next upcoming transitions spanned from 28.15 to 372.21 ms across the 100-500 ms time advances.

arxiv情報

著者 Peiwen Fu,Wenjuan Zhong,Yuyang Zhang,Wenxuan Xiong,Yuzhou Lin,Yanlong Tai,Lin Meng,Mingming Zhang
発行日 2023-11-13 15:23:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク