要約
デモンストレーションからの学習 (LfD) により、人間は協働ロボット (コボット) に新しい動作を簡単に教えることができ、再トレーニングすることなく新しいタスク構成に一般化できます。
ただし、最先端の LfD 手法では固有パラメータを手動で調整する必要があり、専門家なしで産業分野で使用されることはほとんどありません。
我々は、確率的移動プリミティブに基づくパラメータフリーの LfD 手法を提案します。この手法では、パラメータは Jensen-Shannon 発散とベイズ最適化を使用して決定され、ユーザーは手動でパラメータ調整を行う必要はありません。
学習した動作を再現するコボットの精度と、専門家以外のユーザーによる教育と使用のしやすさが、2 つのフィールド テストで評価されます。
最初のフィールドテストでは、協働ロボットがエレベーターのドアのメンテナンスに取り組みます。
2 番目のテストでは、3 人の工場労働者がコボットに日常のワークフローに役立つタスクを教えます。
コボットとターゲットの関節角度の間の誤差はわずかで、最悪でも 0.28 ドル度であり、動作は正確に再現されます。GMCC スコアは 1 です。作業員が記入したアンケートでは、この方法の使いやすさと再現された動作の正確さが強調されました。
。
私たちのコードと記録された軌跡はオンラインで入手できます。
要約(オリジナル)
Learning from demonstrations (LfD) enables humans to easily teach collaborative robots (cobots) new motions that can be generalized to new task configurations without retraining. However, state-of-the-art LfD methods require manually tuning intrinsic parameters and have rarely been used in industrial contexts without experts. We propose a parameter-free LfD method based on probabilistic movement primitives, where parameters are determined using Jensen-Shannon divergence and Bayesian optimization, and users do not have to perform manual parameter tuning. The cobot’s precision in reproducing learned motions, and its ease of teaching and use by non-expert users are evaluated in two field tests. In the first field test, the cobot works on elevator door maintenance. In the second test, three factory workers teach the cobot tasks useful for their daily workflow. Errors between the cobot and target joint angles are insignificant — at worst $0.28$ deg — and the motion is accurately reproduced — GMCC score of 1. Questionnaires completed by the workers highlighted the method’s ease of use and the accuracy of the reproduced motion. Our code and recorded trajectories are made available online.
arxiv情報
著者 | Lorenzo Panchetti,Jianhao Zheng,Mohamed Bouri,Malcolm Mielle |
発行日 | 2023-06-30 12:52:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google