BridgeData V2: A Dataset for Robot Learning at Scale

要約

スケーラブルなロボット学習の研究を促進するために設計されたロボット操作動作の大規模で多様なデータセットである BridgeData V2 を紹介します。
BridgeData V2 には、一般に入手可能な低コスト ロボット上の 24 の環境にわたって収集された 60,096 個の軌跡が含まれています。
BridgeData V2 は、広範なタスクと環境の可変性を提供し、環境、ドメイン、機関全体で汎用化できるスキルにつながり、データセットを幅広い研究者にとって有用なリソースにします。
さらに、このデータセットは、目標画像や自然言語の指示を条件とした、さまざまなオープン語彙のマルチタスク学習方法と互換性があります。
私たちの実験では、データセット上で 6 つの最先端の模倣学習およびオフライン強化学習手法をトレーニングし、それらがさまざまな量の一般化を必要とする一連のタスクで成功することがわかりました。
また、より多くのデータとより高い容量のモデルを使用すると、これらの手法のパフォーマンスが向上し、より多様なスキルのトレーニングが汎化の向上につながることも実証します。
BridgeData V2 と事前トレーニング済みモデルを公開することで、スケーラブルなロボット学習方法の研究を加速することを目指しています。
プロジェクトページ: https://rail-berkeley.github.io/bridgedata

要約(オリジナル)

We introduce BridgeData V2, a large and diverse dataset of robotic manipulation behaviors designed to facilitate research on scalable robot learning. BridgeData V2 contains 60,096 trajectories collected across 24 environments on a publicly available low-cost robot. BridgeData V2 provides extensive task and environment variability, leading to skills that can generalize across environments, domains, and institutions, making the dataset a useful resource for a broad range of researchers. Additionally, the dataset is compatible with a wide variety of open-vocabulary, multi-task learning methods conditioned on goal images or natural language instructions. In our experiments, we train 6 state-of-the-art imitation learning and offline reinforcement learning methods on our dataset, and find that they succeed on a suite of tasks requiring varying amounts of generalization. We also demonstrate that the performance of these methods improves with more data and higher capacity models, and that training on a greater variety of skills leads to improved generalization. By publicly sharing BridgeData V2 and our pre-trained models, we aim to accelerate research in scalable robot learning methods. Project page at https://rail-berkeley.github.io/bridgedata

arxiv情報

著者 Homer Walke,Kevin Black,Abraham Lee,Moo Jin Kim,Max Du,Chongyi Zheng,Tony Zhao,Philippe Hansen-Estruch,Quan Vuong,Andre He,Vivek Myers,Kuan Fang,Chelsea Finn,Sergey Levine
発行日 2023-09-21 21:14:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク