One-Shot Robust Imitation Learning for Long-Horizon Visuomotor Tasks from Unsegmented Demonstrations

要約

単一スキルのタスクとは対照的に、長期的なタスクは私たちの日常生活において重要な役割を果たします。たとえば、注ぐタスクでは、手を伸ばす、つかむ、注ぐというサブタスクを適切に連結する必要があります。
人間のスキルをロボットに伝達するための効率的なソリューションとして、模倣学習は過去 20 年間で大きな進歩を遂げました。
ただし、長期的な視覚運動スキルを学習する場合、模倣学習では多くの場合、意味的にセグメント化された大量のデモンストレーションが必要になります。
さらに、模倣学習のパフォーマンスは、外部の摂動や視覚的な遮蔽の影響を受けやすい可能性があります。
この論文では、動的動作プリミティブとメタ学習を活用して、適応動的プリミティブ (MiLa) を​​使用したメタ模倣学習と呼ばれる、模倣学習のための新しいフレームワークを提供します。
MiLa を使用すると、セグメント化されていない長期的なデモンストレーションを学習し、単一のデモンストレーションで目に見えないタスクに適応することができます。
MiLa は、タスク実行中の外部妨害や視覚的遮蔽にも耐えることができます。
実際のロボット実験では、ロボット上の視覚的な遮蔽やランダムな摂動に関係なく、MiLa の優位性が実証されています。

要約(オリジナル)

In contrast to single-skill tasks, long-horizon tasks play a crucial role in our daily life, e.g., a pouring task requires a proper concatenation of reaching, grasping and pouring subtasks. As an efficient solution for transferring human skills to robots, imitation learning has achieved great progress over the last two decades. However, when learning long-horizon visuomotor skills, imitation learning often demands a large amount of semantically segmented demonstrations. Moreover, the performance of imitation learning could be susceptible to external perturbation and visual occlusion. In this paper, we exploit dynamical movement primitives and meta-learning to provide a new framework for imitation learning, called Meta-Imitation Learning with Adaptive Dynamical Primitives (MiLa). MiLa allows for learning unsegmented long-horizon demonstrations and adapting to unseen tasks with a single demonstration. MiLa can also resist external disturbances and visual occlusion during task execution. Real-world robotic experiments demonstrate the superiority of MiLa, irrespective of visual occlusion and random perturbations on robots.

arxiv情報

著者 Shaokang Wu,Yijin Wang,Yanlong Huang
発行日 2024-10-02 15:02:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク