Reciprocal Learning of Intent Inferral with Augmented Visual Feedback for Stroke

要約

ロボット デバイスが生体信号からユーザーの意図を予測するプロセスである意図推論は、ウェアラブル ロボットを制御するための効果的かつ直感的な方法を提供します。
古典的な意図推論手法では、生体信号入力を機械学習モデルをトレーニングするための一方向のグラウンド トゥルースとして扱います。この場合、モデルの内部状態はユーザーが直接観察できません。
この研究では、意図推論分類器への人間の適応を促進する双方向パラダイムである相互学習を提案します。
私たちのパラダイムは、機械学習モデルの更新と、強化された視覚フィードバックを使用した人間の適応の誘導を交互に繰り返す、織り交ぜられた段階で構成されています。
我々は、脳卒中用ロボットハンド装具の制御という文脈でこのパラダイムを実証します。このパラダイムでは、デバイスが筋電図 (EMG) 信号から開閉、弛緩の意図を予測し、適切な支援を提供します。
LED プログレスバー表示を使用して、分類子によるオープン インテントとクローズ インテントの予測確率をユーザーに伝えます。
脳卒中被験者を対象とした私たちの実験では、相互学習により被験者のサブセット (5 人中 2 人) のパフォーマンスが向上し、他の被験者のパフォーマンスには悪影響を及ぼさないことが示されました。
私たちは、相互学習中に、被験者はより識別可能な筋肉活性化パターンを再現し、より分離可能な生体信号を生成することを学習できると仮説を立てています。

要約(オリジナル)

Intent inferral, the process by which a robotic device predicts a user’s intent from biosignals, offers an effective and intuitive way to control wearable robots. Classical intent inferral methods treat biosignal inputs as unidirectional ground truths for training machine learning models, where the internal state of the model is not directly observable by the user. In this work, we propose reciprocal learning, a bidirectional paradigm that facilitates human adaptation to an intent inferral classifier. Our paradigm consists of iterative, interwoven stages that alternate between updating machine learning models and guiding human adaptation with the use of augmented visual feedback. We demonstrate this paradigm in the context of controlling a robotic hand orthosis for stroke, where the device predicts open, close, and relax intents from electromyographic (EMG) signals and provides appropriate assistance. We use LED progress-bar displays to communicate to the user the predicted probabilities for open and close intents by the classifier. Our experiments with stroke subjects show reciprocal learning improving performance in a subset of subjects (two out of five) without negatively impacting performance on the others. We hypothesize that, during reciprocal learning, subjects can learn to reproduce more distinguishable muscle activation patterns and generate more separable biosignals.

arxiv情報

著者 Jingxi Xu,Ava Chen,Lauren Winterbottom,Joaquin Palacios,Preethika Chivukula,Dawn M. Nilsen,Joel Stein,Matei Ciocarlie
発行日 2024-12-10 22:49:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG, cs.RO パーマリンク