Kinetic and Kinematic Sensors-free Approach for Estimation of Continuous Force and Gesture in sEMG Prosthetic Hands

要約

回帰ベースの sEMG 義手は、連続的な運動パラメータと運動パラメータを提供できるため、広く使用されています。
しかし、これらのモデルを確立するには、sEMGと同期して対応する運動学的および運動学的データを収集する複雑なセンサーシステムが必要ですが、これは煩雑でユーザーフレンドリーではありません。
この論文では、sEMG義手を制御するための運動学的および運動学的センサーを使用しないアプローチを提案し、個々の指の屈曲/伸展、複数の指の屈曲/伸展、拳の開閉という3つの手の動きの連続的なデコードと実行を可能にします。
このアプローチでは、指の最大屈曲力ラベルと伸展力ラベルをそれぞれ表す 2 つのデータ ポイント (-1 と 1) のみを利用し、それらに対応する sEMG データを使用して、sEMG データとラベルに基づいて近線形モデルを確立します。
モデルの出力ラベル値は、指の力の方向と大きさを制御するために使用され、連続的なジェスチャの推定を可能にします。
このアプローチを検証するために、デンドリティック ネット (DD)、線形ネット (LN)、多層パーセプトロン (MLP)、畳み込みニューラル ネットワーク (CNN) の 4 つのモデルを使用してオフラインおよびオンライン実験を実施しました。
オフライン分析では、指の力の方向を分類し、力の中間値を補間する各モデルの能力を評価し、オンライン実験では、ジェスチャーの制御と力の正確な調整におけるリアルタイムの制御パフォーマンスを評価しました。
私たちの結果は、DD モデルと LN モデルが指の力とジェスチャーの優れたリアルタイム制御を提供することを示しており、義肢用途におけるこのセンサーフリーのアプローチの実用的な可能性を強調しています。
この研究により、sEMG ベースの回帰義手の運動パラメータおよび運動学的パラメータの収集の複雑さが大幅に軽減され、義手の使いやすさと利便性が向上しました。

要約(オリジナル)

Regression-based sEMG prosthetic hands are widely used for their ability to provide continuous kinetic and kinematic parameters. However, establishing these models requires complex sensors systems to collect corresponding kinetic and kinematic data in synchronization with sEMG, which is cumbersome and user-unfriendly. This paper proposes a kinetic and kinematic sensors-free approach for controlling sEMG prosthetic hands, enabling continuous decoding and execution of three hand movements: individual finger flexion/extension, multiple finger flexion/extension, and fist opening/closing. This approach utilizes only two data points (-1 and 1), representing maximal finger flexion force label and extension force label respectively, and their corresponding sEMG data to establish a near-linear model based on sEMG data and labels. The model’s output labels values are used to control the direction and magnitude of fingers forces, enabling the estimation of continuous gestures. To validate this approach, we conducted offline and online experiments using four models: Dendritic Net (DD), Linear Net (LN), Multi-Layer Perceptron (MLP), and Convolutional Neural Network (CNN). The offline analysis assessed each model’s ability to classify finger force direction and interpolate intermediate force values, while online experiments evaluated real-time control performance in controlling gestures and accurately adjusting forces. Our results demonstrate that the DD and LN models provide excellent real-time control of finger forces and gestures, highlighting the practical potential of this sensors-free approach for prosthetic applications. This study significantly reduces the complexity of collecting kinetic and kinematic parameters in sEMG-based regression prosthetics, thus enhancing the usability and convenience of prosthetic hands.

arxiv情報

著者 Gang Liu,Zhenxiang Wang,Chuanmei Xi,Ziyang He,Shanshan Guo,Rui Zhang,Dezhong Yao
発行日 2024-09-16 16:04:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク