RoboCat: A Self-Improving Foundation Agent for Robotic Manipulation

要約

さまざまなロボットやタスクからの異種ロボット経験を活用して、新しいスキルや実施形態を迅速に習得できる能力は、ロボット学習を変革する可能性を秘めています。
視覚と言語の基礎モデルにおける最近の進歩に触発されて、私たちはロボット操作のための基礎エージェントを提案します。
RoboCat と名付けられたこのエージェントは、複数の実施形態のアクションラベル付き視覚体験を利用できる、視覚的な目標条件付き意思決定変換器です。
このデータは、さまざまな観察と動作を伴うシミュレートされたロボット アームと実際のロボット アームからのモーター制御スキルの幅広いレパートリーに及びます。
RoboCat を使用すると、ターゲット タスクの 100 ~ 1000 個の例のみを使用して、ゼロショットと適応を通じて、新しいタスクとロボットに一般化する能力を実証します。
また、トレーニングされたモデル自体を使用して、後続のトレーニング反復用のデータを生成し、自律的な改善ループの基本的な構成要素を提供する方法も示します。
私たちは、シミュレーションと 3 つの異なる実際のロボットの実施形態の両方で大規模な評価を行い、エージェントの能力を調査します。
トレーニング データが増大し、多様化するにつれて、RoboCat はタスク間移行の兆候を示すだけでなく、新しいタスクへの適応がより効率的になることもわかりました。

要約(オリジナル)

The ability to leverage heterogeneous robotic experience from different robots and tasks to quickly master novel skills and embodiments has the potential to transform robot learning. Inspired by recent advances in foundation models for vision and language, we propose a foundation agent for robotic manipulation. This agent, named RoboCat, is a visual goal-conditioned decision transformer capable of consuming multi-embodiment action-labelled visual experience. This data spans a large repertoire of motor control skills from simulated and real robotic arms with varying sets of observations and actions. With RoboCat, we demonstrate the ability to generalise to new tasks and robots, both zero-shot as well as through adaptation using only 100–1000 examples for the target task. We also show how a trained model itself can be used to generate data for subsequent training iterations, thus providing a basic building block for an autonomous improvement loop. We investigate the agent’s capabilities, with large-scale evaluations both in simulation and on three different real robot embodiments. We find that as we grow and diversify its training data, RoboCat not only shows signs of cross-task transfer, but also becomes more efficient at adapting to new tasks.

arxiv情報

著者 Konstantinos Bousmalis,Giulia Vezzani,Dushyant Rao,Coline Devin,Alex X. Lee,Maria Bauza,Todor Davchev,Yuxiang Zhou,Agrim Gupta,Akhil Raju,Antoine Laurens,Claudio Fantacci,Valentin Dalibard,Martina Zambelli,Murilo Martins,Rugile Pevceviciute,Michiel Blokzijl,Misha Denil,Nathan Batchelor,Thomas Lampe,Emilio Parisotto,Konrad Żołna,Scott Reed,Sergio Gómez Colmenarejo,Jon Scholz,Abbas Abdolmaleki,Oliver Groth,Jean-Baptiste Regli,Oleg Sushkov,Tom Rothörl,José Enrique Chen,Yusuf Aytar,Dave Barker,Joy Ortiz,Martin Riedmiller,Jost Tobias Springenberg,Raia Hadsell,Francesco Nori,Nicolas Heess
発行日 2023-06-20 17:35:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク