要約
Learning from Demonstration (LfD) により、ロボットは人間のデモンストレーションから動作ポリシーを学習することで、多彩なスキルを習得できます。
ユーザーは、時間のかかるロボットのプログラミングや非効率的なソリューションの探索を必要とせずに、新しいスキルをロボットに伝達するための直感的なインターフェイスを利用できます。
タスクの実行中、ロボットの動作は通常、環境によって課される制約の影響を受けます。
これを考慮して、タスク パラメーター化 LfD (TP-LfD) は、関連するコンテキスト情報を参照フレームにエンコードし、新しい状況へのスキルのより適切な一般化を可能にします。
ただし、ほとんどの TP-LfD アルゴリズムは通常、意味のあるモデルに十分な統計を確保するために、さまざまな環境条件にわたって複数のデモンストレーションを必要とします。
ロボットユーザーにとって、さまざまな状況を作成し、そのすべての下でデモンストレーションを実行することは簡単な作業ではありません。
したがって、この論文では、少ないデモンストレーションからスキルを学習するための新しいアルゴリズムを紹介します。
タスク実行中のフレームの重要性または関連性をキャプチャする参照フレームの重みを活用することで、私たちの方法は優れたスキル習得パフォーマンスを実証し、実際のロボット環境で検証されています。
要約(オリジナル)
Learning from Demonstration (LfD) enables robots to acquire versatile skills by learning motion policies from human demonstrations. It endows users with an intuitive interface to transfer new skills to robots without the need for time-consuming robot programming and inefficient solution exploration. During task executions, the robot motion is usually influenced by constraints imposed by environments. In light of this, task-parameterized LfD (TP-LfD) encodes relevant contextual information into reference frames, enabling better skill generalization to new situations. However, most TP-LfD algorithms typically require multiple demonstrations across various environmental conditions to ensure sufficient statistics for a meaningful model. It is not a trivial task for robot users to create different situations and perform demonstrations under all of them. Therefore, this paper presents a novel algorithm to learn skills from few demonstrations. By leveraging the reference frame weights that capture the frame importance or relevance during task executions, our method demonstrates excellent skill acquisition performance, which is validated in real robotic environments.
arxiv情報
著者 | Jianyong Sun,Jens Kober,Michael Gienger,Jihong Zhu |
発行日 | 2023-10-26 07:04:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google