LOTUS: Continual Imitation Learning for Robot Manipulation Through Unsupervised Skill Discovery

要約

LOTUS は、物理ロボットが寿命を通じて新しい操作タスクを解決する方法を継続的かつ効率的に学習できるようにする継続的模倣学習アルゴリズムです。
LOTUS の背後にある中心的なアイデアは、少数の人によるデモンストレーションを伴う一連の新しいタスクから、成長し続けるスキル ライブラリを構築することです。
LOTUS は、オープン語彙ビジョン モデルを使用した継続的なスキル発見プロセスから始まり、セグメント化されていないデモンストレーションで提示される繰り返しパターンとしてスキルを抽出します。
継続的なスキル発見により、既存のスキルが更新され、以前のタスクの壊滅的な忘れを回避し、新しいタスクを解決するための新しいスキルを追加します。
LOTUS は、生涯学習プロセスにおける視覚ベースの操作タスクに取り組むために、さまざまなスキルを柔軟に構成するメタコントローラーをトレーニングします。
私たちの包括的な実験では、LOTUS が成功率において最先端のベースラインを 11% 以上上回っており、従来の方法と比較して優れた知識伝達能力を示していることが示されています。
その他の結果とビデオは、プロジェクト Web サイト (https://ut-austin-rpl.github.io/Lotus/) でご覧いただけます。

要約(オリジナル)

We introduce LOTUS, a continual imitation learning algorithm that empowers a physical robot to continuously and efficiently learn to solve new manipulation tasks throughout its lifespan. The core idea behind LOTUS is constructing an ever-growing skill library from a sequence of new tasks with a small number of human demonstrations. LOTUS starts with a continual skill discovery process using an open-vocabulary vision model, which extracts skills as recurring patterns presented in unsegmented demonstrations. Continual skill discovery updates existing skills to avoid catastrophic forgetting of previous tasks and adds new skills to solve novel tasks. LOTUS trains a meta-controller that flexibly composes various skills to tackle vision-based manipulation tasks in the lifelong learning process. Our comprehensive experiments show that LOTUS outperforms state-of-the-art baselines by over 11% in success rate, showing its superior knowledge transfer ability compared to prior methods. More results and videos can be found on the project website: https://ut-austin-rpl.github.io/Lotus/.

arxiv情報

著者 Weikang Wan,Yifeng Zhu,Rutav Shah,Yuke Zhu
発行日 2024-03-12 17:23:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク