要約
手足の損失は世界中に数百万人に影響を及ぼし、身体機能の損失と生活の質を低下させます。
ほとんどの従来の表面筋電図(SEMG)および半自律的な方法では、ユーザーが各コントロールの筋電信号を生成し、肉体的および精神的に課税する必要があります。
この研究の目的は、手首に取り付けられたカメラのみを使用して、補綴手がさまざまな形状のオブジェクトを自動的に把握および放出できるようにする完全な自律制御システムを開発することを目的としています。
オブジェクトの近くに手を置くことにより、システムは、手の動きと環境に応じて、適切なグリップ力で握るアクションを自動的に実行します。
把握されているオブジェクトをリリースするには、オブジェクトをテーブルの近くに自然に配置すると、システムが自動的に手を開けます。
このようなシステムは、個人に非常に使いやすい補綴コントロールインターフェイスで四肢の損失を提供し、使用中の精神的努力を大幅に減らします。
この目標を達成するために、模倣学習を使用して人間のデモンストレーションデータを収集するための人間のデモデータを収集するためのテレオ操作システムを開発しました。
1人の参加者からのいくつかのオブジェクトのデータのみを使用してモデルをトレーニングすることにより、模倣学習アルゴリズムが高い成功率を達成し、重量の変動を伴うより多くの個人や目に見えないオブジェクトに一般化できることを示しました。
デモンストレーションは、\ href {https://sites.google.com/view/autonomous-prusthetichand}で入手できます}
要約(オリジナル)
Limb loss affects millions globally, impairing physical function and reducing quality of life. Most traditional surface electromyographic (sEMG) and semi-autonomous methods require users to generate myoelectric signals for each control, imposing physically and mentally taxing demands. This study aims to develop a fully autonomous control system that enables a prosthetic hand to automatically grasp and release objects of various shapes using only a camera attached to the wrist. By placing the hand near an object, the system will automatically execute grasping actions with a proper grip force in response to the hand’s movements and the environment. To release the object being grasped, just naturally place the object close to the table and the system will automatically open the hand. Such a system would provide individuals with limb loss with a very easy-to-use prosthetic control interface and greatly reduce mental effort while using. To achieve this goal, we developed a teleoperation system to collect human demonstration data for training the prosthetic hand control model using imitation learning, which mimics the prosthetic hand actions from human. Through training the model using only a few objects’ data from one single participant, we have shown that the imitation learning algorithm can achieve high success rates, generalizing to more individuals and unseen objects with a variation of weights. The demonstrations are available at \href{https://sites.google.com/view/autonomous-prosthetic-hand}{https://sites.google.com/view/autonomous-prosthetic-hand}
arxiv情報
著者 | Kaijie Shi,Wanglong Lu,Hanli Zhao,Vinicius Prado da Fonseca,Ting Zou,Xianta Jiang |
発行日 | 2025-06-10 13:44:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google