DexSkills: Skill Segmentation Using Haptic Data for Learning Autonomous Long-Horizon Robotic Manipulation Tasks

要約

器用なロボットハンドによる長周期タスクの効果的な実行は、実世界の問題において依然として重要な課題である。人間の実演から学習することは有望な結果を示しているが、学習には大規模なデータ収集が必要である。したがって、ロングホライズンタスクを再利用可能なプリミティブスキルに分解することが、より効率的なアプローチである。DexSkillsは、原始的なスキルを用いて長ホライズンの器用な操作タスクを扱う、新しい教師あり学習フレームワークである。DexSkillsは、人間の実演データを用いて、選択されたスキルのセットを認識し、複製するように訓練され、その後、実演された長ホライズン器用操作タスクをプリミティブスキルのシーケンスに分割し、ロボットが直接ワンショットで実行できるようにする。重要なことは、DexSkillsは固有知覚と触覚データ、すなわち触覚データのみで動作することである。我々の実際のロボット実験から、DexSkillsはスキルを正確に分割することができ、それによって多様なタスクの自律的なロボット実行が可能になることが示されている。

要約(オリジナル)

Effective execution of long-horizon tasks with dexterous robotic hands remains a significant challenge in real-world problems. While learning from human demonstrations have shown encouraging results, they require extensive data collection for training. Hence, decomposing long-horizon tasks into reusable primitive skills is a more efficient approach. To achieve so, we developed DexSkills, a novel supervised learning framework that addresses long-horizon dexterous manipulation tasks using primitive skills. DexSkills is trained to recognize and replicate a select set of skills using human demonstration data, which can then segment a demonstrated long-horizon dexterous manipulation task into a sequence of primitive skills to achieve one-shot execution by the robot directly. Significantly, DexSkills operates solely on proprioceptive and tactile data, i.e., haptic data. Our real-world robotic experiments show that DexSkills can accurately segment skills, thereby enabling autonomous robot execution of a diverse range of tasks.

arxiv情報

著者 Xiaofeng Mao,Gabriele Giudici,Claudio Coppola,Kaspar Althoefer,Ildar Farkhatdinov,Zhibin Li,Lorenzo Jamone
発行日 2024-05-06 13:51:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク