Learning Human-arm Reaching Motion Using IMU in Human-Robot Collaboration

要約

2 人の人間によって実行されるタスクの多くは、ツールやオブジェクトの受け渡しなど、アーム間の相互作用を必要とします。
ロボット アームが人間と同じように対話するには、人間のアームの位置をリアルタイムで推論する必要があります。
さらに、タイムリーにインタラクションを取得するには、ロボットは事前に動作を計画して開始するために、人間の最終ターゲットを予測できなければなりません。
この論文では、ヒューマン ロボット コラボレーション (HRC) のリアルタイム アプリケーション向けにリーチ動作を学習するための 2 つの慣性測定ユニット (IMU) を備えた低コストのウェアラブル デバイスの使用を検討します。
ウェアラブル デバイスは、乱雑な環境で照明が悪い場合や遮蔽された場合に、視覚認識を代替または補完することができます。
まず、ニューラル ネットワーク モデルをトレーニングして、腕の現在の位置を推定します。
次に、リカレント ニューラル ネットワークに基づく新しいモデルを提案し、動作中の人間の腕の将来のターゲットをリアルタイムで予測します。
ターゲットを早期に予測すると、人間の動作中にロボットが動作を計画して開始するのに十分な時間が与えられます。
モデルの精度は、運動表現に含まれる特徴に関して分析されます。
ロボットアームを使用した実験と実際のデモンストレーションを通じて、視覚的な認識がなくても、十分な精度が実現可能な HRC に達成されることを示します。
トレーニングが完了すると、システムは追加の労力を必要とせずにさまざまなスペースに導入できます。
このモデルは、人間の腕のさまざまな初期姿勢に対して高い精度を示します。
さらに、トレーニングされたモデルは、モデルのトレーニングに含まれていない追加の人間の参加者でも高い成功率を提供することが示されています。

要約(オリジナル)

Many tasks performed by two humans require mutual interaction between arms such as handing-over tools and objects. In order for a robotic arm to interact with a human in the same way, it must reason about the location of the human arm in real-time. Furthermore and to acquire interaction in a timely manner, the robot must be able predict the final target of the human in order to plan and initiate motion beforehand. In this paper, we explore the use of a low-cost wearable device equipped with two inertial measurement units (IMU) for learning reaching motion for real-time applications of Human-Robot Collaboration (HRC). A wearable device can replace or be complementary to visual perception in cases of bad lighting or occlusions in a cluttered environment. We first train a neural-network model to estimate the current location of the arm. Then, we propose a novel model based on a recurrent neural-network to predict the future target of the human arm during motion in real-time. Early prediction of the target grants the robot with sufficient time to plan and initiate motion during the motion of the human. The accuracies of the models are analyzed concerning the features included in the motion representation. Through experiments and real demonstrations with a robotic arm, we show that sufficient accuracy is achieved for feasible HRC without any visual perception. Once trained, the system can be deployed in various spaces with no additional effort. The models exhibit high accuracy for various initial poses of the human arm. Moreover, the trained models are shown to provide high success rates with additional human participants not included in the model training.

arxiv情報

著者 Nadav D. Kahanowich,Avishai Sintov
発行日 2023-08-26 18:22:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, eess.SP パーマリンク