A Powered Prosthetic Hand with Vision System for Enhancing the Anthropopathic Grasp

要約

把握プロセスの擬人化は、義手の装着者の経験と把握効率に大きな利益をもたらします。
現在、ブレイン・コンピューター・インターフェース(BCI)や筋電図検査(EMG)などの信号によって制御される義手は、切断患者の握る動作を正確に認識し、擬人化された把握プロセスを実行することが困難に直面している。
視覚システムを備えた義手は、物体の特徴を認識することを可能にしますが、人間の把握意図を認識することはできません。
したがって、この論文では、複数のオブジェクト環境内で人為的把握制御と把握意図の決定を達成するために、視覚データのみを介して把握ジェスチャを推定することを検討します。
これに対処するために、人間の手の掴みプロセスの幾何学的特徴に基づいてジェスチャ関数を構築する空間幾何学ベースのジェスチャ マッピング (SG-GM) 手法を提案します。
その後、義手にも実装されます。
さらに、運動軌跡回帰ベースの把握意図推定 (MTR-GIE) アルゴリズムを提案します。
このアルゴリズムは、回帰予測と義手の位置と軌道から導出される事前の空間セグメンテーション推定を利用して、事前の把持物体を予測します。
実験は、カップ、フォークなどを含む 8 つの日常的な物体をつかむために行われました。実験結果は、つかむプロセスの類似係数 $R^{2}$ が 0.911、二乗平均平方根誤差 ($RMSE$) が 2.47\ であることを示しました。
度、掴みの成功率は 95.43$\%$、掴みプロセスの平均時間は 3.07$\pm$0.41 秒でした。
さらに、複数物体環境での把握実験も実施した。
意図推定の平均精度は 94.35$\%$ に達しました。
私たちの方法論は、義手の機能を強化するための画期的なアプローチを提供し、将来の研究に貴重な洞察を提供します。

要約(オリジナル)

The anthropomorphism of grasping process significantly benefits the experience and grasping efficiency of prosthetic hand wearers. Currently, prosthetic hands controlled by signals such as brain-computer interfaces (BCI) and electromyography (EMG) face difficulties in precisely recognizing the amputees’ grasping gestures and executing anthropomorphic grasp processes. Although prosthetic hands equipped with vision systems enables the objects’ feature recognition, they lack perception of human grasping intention. Therefore, this paper explores the estimation of grasping gestures solely through visual data to accomplish anthropopathic grasping control and the determination of grasping intention within a multi-object environment. To address this, we propose the Spatial Geometry-based Gesture Mapping (SG-GM) method, which constructs gesture functions based on the geometric features of the human hand grasping processes. It’s subsequently implemented on the prosthetic hand. Furthermore, we propose the Motion Trajectory Regression-based Grasping Intent Estimation (MTR-GIE) algorithm. This algorithm predicts pre-grasping object utilizing regression prediction and prior spatial segmentation estimation derived from the prosthetic hand’s position and trajectory. The experiments were conducted to grasp 8 common daily objects including cup, fork, etc. The experimental results presented a similarity coefficient $R^{2}$ of grasping process of 0.911, a Root Mean Squared Error ($RMSE$) of 2.47\degree, a success rate of grasping of 95.43$\%$, and an average duration of grasping process of 3.07$\pm$0.41 s. Furthermore, grasping experiments in a multi-object environment were conducted. The average accuracy of intent estimation reached 94.35$\%$. Our methodologies offer a groundbreaking approach to enhance the prosthetic hand’s functionality and provides valuable insights for future research.

arxiv情報

著者 Yansong Xu,Xiaohui Wang,Junlin Li,Xiaoqian Zhang,Feng Li,Qing Gao,Chenglong Fu,Yuquan Leng
発行日 2024-12-10 01:45:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.HC, cs.RO, cs.SY, eess.SY パーマリンク