要約
生成シミュレーションを通じてさまざまなロボット スキルを大規模に自動的に学習する生成ロボット エージェントである RoboGen を紹介します。
RoboGen は、基礎モデルと生成モデルの最新の進歩を活用しています。
これらのモデルを直接使用または適応させてポリシーや低レベルのアクションを生成する代わりに、これらのモデルを使用して多様なタスク、シーン、およびトレーニングの監督を自動的に生成する生成スキームを提唱します。これにより、最小限の人間の監督でロボットのスキル学習をスケールアップできます。
。
私たちのアプローチでは、ロボット エージェントに自己誘導型の提案、生成、学習サイクルを備えています。エージェントはまず、開発すべき興味深いタスクとスキルを提案し、次に、適切な空間構成を備えた関連オブジェクトとアセットを設定することによって、対応するシミュレーション環境を生成します。
その後、エージェントは提案された高レベルのタスクをサブタスクに分解し、最適な学習アプローチ (強化学習、動作計画、または軌道の最適化) を選択し、必要なトレーニング監督を生成して、提案されたスキルを習得するためのポリシーを学習します。
私たちの研究は、大規模モデルに埋め込まれた広範囲かつ多用途の知識を抽出し、それらをロボット工学の分野に応用することを試みています。
完全に生成可能なパイプラインは繰り返しクエリを実行でき、多様なタスクや環境に関連するスキル デモンストレーションの無限の流れを生成します。
要約(オリジナル)
We present RoboGen, a generative robotic agent that automatically learns diverse robotic skills at scale via generative simulation. RoboGen leverages the latest advancements in foundation and generative models. Instead of directly using or adapting these models to produce policies or low-level actions, we advocate for a generative scheme, which uses these models to automatically generate diversified tasks, scenes, and training supervisions, thereby scaling up robotic skill learning with minimal human supervision. Our approach equips a robotic agent with a self-guided propose-generate-learn cycle: the agent first proposes interesting tasks and skills to develop, and then generates corresponding simulation environments by populating pertinent objects and assets with proper spatial configurations. Afterwards, the agent decomposes the proposed high-level task into sub-tasks, selects the optimal learning approach (reinforcement learning, motion planning, or trajectory optimization), generates required training supervision, and then learns policies to acquire the proposed skill. Our work attempts to extract the extensive and versatile knowledge embedded in large-scale models and transfer them to the field of robotics. Our fully generative pipeline can be queried repeatedly, producing an endless stream of skill demonstrations associated with diverse tasks and environments.
arxiv情報
著者 | Yufei Wang,Zhou Xian,Feng Chen,Tsun-Hsuan Wang,Yian Wang,Zackory Erickson,David Held,Chuang Gan |
発行日 | 2023-11-13 18:40:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google