要約
この論文では、モーション プリミティブのライブラリの作成に向けて進行中の作業について説明します。
このライブラリにより、ロボット スキルの学習と再利用がより簡単かつ直感的に容易になります。
ユーザーは、デモンストレーションからの学習を通じてロボットに複雑なスキルを教えることができます。デモンストレーションは自動的にプリミティブに分割され、同様のスキルのクラスターに保存されます。
我々は、新しいマルチモーダルセグメンテーション法と新しい軌跡クラスタリング法を提案します。
次に、再利用が必要な場合は、軌道編集を使用してプリミティブを新しい環境に変換します。
実世界のロボットで行われたデモンストレーションを使用して、フレームワークのシミュレーション結果を示します。
要約(オリジナル)
In this paper, we present our work in progress towards creating a library of motion primitives. This library facilitates easier and more intuitive learning and reusing of robotic skills. Users can teach robots complex skills through Learning from Demonstration, which is automatically segmented into primitives and stored in clusters of similar skills. We propose a novel multimodal segmentation method as well as a novel trajectory clustering method. Then, when needed for reuse, we transform primitives into new environments using trajectory editing. We present simulated results for our framework with demonstrations taken on real-world robots.
arxiv情報
著者 | Brendan Hertel,Nhu Tran,Meriem Elkoudi,Reza Azadeh |
発行日 | 2024-04-29 02:42:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google