GenAug: Retargeting behaviors to unseen situations via Generative Augmentation

要約

ロボットの学習方法は、タスク、環境、およびオブジェクト全体で広く一般化される可能性があります。
ただし、これらの方法では、現実世界のロボット工学の設定で収集するのに費用がかかる大規模で多様なデータセットが必要です。
ロボットの学習を一般化するには、データのソースまたはロボット自身の経験を超えた事前情報を活用できなければなりません。
この作業では、Web スクレイピングされたデータの大規模なコーパスで事前トレーニングされた画像テキスト生成モデルが、そのようなデータ ソースとして機能できると仮定します。
これらの生成モデルは、大部分がロボット工学以外のデータでトレーニングされているにもかかわらず、広範な一般化を可能にする方法でロボット学習のプロセスに事前確率を与える効果的な方法として機能できることを示しています。
特に、事前トレーニングされた生成モデルが、意味的に意味のあるデータ拡張のための効果的なツールとしてどのように機能するかを示します。
適切な「セマンティック」データ拡張を生成するためにこれらの事前トレーニング済みモデルを活用することにより、ポリシーの一般化を大幅に改善できるシステム GenAug を提案します。
GenAug を卓上操作タスクに適用し、実世界のデータの限界量のみを必要としながら、動作を新しいシナリオに再ターゲットする機能を示します。
現実世界の多くのオブジェクト操作の問題に対するこのシステムの有効性を実証し、新しいシーンやオブジェクトへの一般化が 40% 改善されたことを示しています。

要約(オリジナル)

Robot learning methods have the potential for widespread generalization across tasks, environments, and objects. However, these methods require large diverse datasets that are expensive to collect in real-world robotics settings. For robot learning to generalize, we must be able to leverage sources of data or priors beyond the robot’s own experience. In this work, we posit that image-text generative models, which are pre-trained on large corpora of web-scraped data, can serve as such a data source. We show that despite these generative models being trained on largely non-robotics data, they can serve as effective ways to impart priors into the process of robot learning in a way that enables widespread generalization. In particular, we show how pre-trained generative models can serve as effective tools for semantically meaningful data augmentation. By leveraging these pre-trained models for generating appropriate ‘semantic’ data augmentations, we propose a system GenAug that is able to significantly improve policy generalization. We apply GenAug to tabletop manipulation tasks, showing the ability to re-target behavior to novel scenarios, while only requiring marginal amounts of real-world data. We demonstrate the efficacy of this system on a number of object manipulation problems in the real world, showing a 40% improvement in generalization to novel scenes and objects.

arxiv情報

著者 Zoey Chen,Sho Kiami,Abhishek Gupta,Vikash Kumar
発行日 2023-02-13 20:18:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク