Deep Learning for Human Locomotion Analysis in Lower-Limb Exoskeletons: A Comparative Study

要約

下肢支援のためのウェアラブルロボット工学は、身体障害のある個人のモビリティを高めるか、健常者のパフォーマンスを増強することを目指して、極めて重要な研究分野になりました。
特に多様で動的な地形をナビゲートする場合、着用者とロボットデバイスの間のシームレスな相互作用を確保するには、正確で適応的な制御システムが不可欠です。
時系列分析のためのニューラルネットワークの最近の進歩にもかかわらず、地面条件の分類に向けられた試みはありませんでした。これは5つのクラスに分類され、その後ランプの斜面と階段の高さを決定しました。
この点で、このペーパーでは、8つの深いニューラルネットワークバックボーン間の実験的な比較を示し、多様な地形全体の高レベルの移動パラメーターを予測します。
すべてのモデルは、公開されているCamargo 2021データセットでトレーニングされています。
IMUのみのデータは、IMU+EMG入力を等しくまたは上回り、費用対効果の高い効率的な設計を促進しました。
実際、3つのIMUセンサーを使用して、LSTMは高い地形分類精度(0.94 +-0.04)と正確なランプスロープ(1.95 +-0.58 {\ deg})とCNN-LSTMが階段の高さ(15.65 +-7.40 mm)の推定を達成しました。
さらなる貢献として、SHAP分析により、パフォーマンスが低下することなくセンサーの削減が正当化され、軽量のセットアップが確保されました。
システムは、リアルタイムアプリケーションをサポートして、約2ミリ秒の推論時間で動作します。
このコードは、https://github.com/cosbidev/human-locomotion-識別で入手可能なコードです。

要約(オリジナル)

Wearable robotics for lower-limb assistance have become a pivotal area of research, aiming to enhance mobility for individuals with physical impairments or augment the performance of able-bodied users. Accurate and adaptive control systems are essential to ensure seamless interaction between the wearer and the robotic device, particularly when navigating diverse and dynamic terrains. Despite the recent advances in neural networks for time series analysis, no attempts have been directed towards the classification of ground conditions, categorized into five classes and subsequently determining the ramp’s slope and stair’s height. In this respect, this paper presents an experimental comparison between eight deep neural network backbones to predict high-level locomotion parameters across diverse terrains. All the models are trained on the publicly available CAMARGO 2021 dataset. IMU-only data equally or outperformed IMU+EMG inputs, promoting a cost-effective and efficient design. Indeeds, using three IMU sensors, the LSTM achieved high terrain classification accuracy (0.94 +- 0.04) and precise ramp slope (1.95 +- 0.58{\deg}) and the CNN-LSTM a stair height (15.65 +- 7.40 mm) estimations. As a further contribution, SHAP analysis justified sensor reduction without performance loss, ensuring a lightweight setup. The system operates with ~2 ms inference time, supporting real-time applications. The code is code available at https://github.com/cosbidev/Human-Locomotion-Identification.

arxiv情報

著者 Omar Coser,Christian Tamantini,Matteo Tortora,Leonardo Furia,Rosa Sicilia,Loredana Zollo,Paolo Soda
発行日 2025-03-21 07:12:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, F.2.2, I.2.7 パーマリンク