要約
現実世界でロボットデータを収集するコストが高いことを考えると、サンプル効率はロボット工学において一貫して切実な追求です。
このペーパーでは、視覚表現とアクション表現の改善によりサンプル効率を向上させる模倣学習フレームワークである SGRv2 を紹介します。
SGRv2 の設計の中心となるのは、重要な誘導性バイアス動作局所性の組み込みであり、ロボットの動作は主にターゲット オブジェクトとそのローカル環境との相互作用によって影響を受けると仮定します。
シミュレーション設定と現実世界の設定の両方での広範な実験により、アクションの局所性がサンプル効率を高めるために不可欠であることが実証されました。
SGRv2 は、わずか 5 つのデモンストレーションを使用して、キーフレーム制御を備えた RLBench タスクで優れており、26 タスク中 23 タスクで RVT ベースラインを上回っています。
さらに、ManiSkill2 と MimicGen で密な制御を使用して評価した場合、SGRv2 の成功率は SGR の 2.54 倍です。
実際の環境では、SGRv2 はわずか 8 つのデモンストレーションで、ベースライン モデルと比較して著しく高い成功率でさまざまなタスクを実行できます。
プロジェクト Web サイト: http://sgrv2-robot.github.io
要約(オリジナル)
Given the high cost of collecting robotic data in the real world, sample efficiency is a consistently compelling pursuit in robotics. In this paper, we introduce SGRv2, an imitation learning framework that enhances sample efficiency through improved visual and action representations. Central to the design of SGRv2 is the incorporation of a critical inductive bias-action locality, which posits that robot’s actions are predominantly influenced by the target object and its interactions with the local environment. Extensive experiments in both simulated and real-world settings demonstrate that action locality is essential for boosting sample efficiency. SGRv2 excels in RLBench tasks with keyframe control using merely 5 demonstrations and surpasses the RVT baseline in 23 of 26 tasks. Furthermore, when evaluated on ManiSkill2 and MimicGen using dense control, SGRv2’s success rate is 2.54 times that of SGR. In real-world environments, with only eight demonstrations, SGRv2 can perform a variety of tasks at a markedly higher success rate compared to baseline models. Project website: http://sgrv2-robot.github.io
arxiv情報
著者 | Tong Zhang,Yingdong Hu,Jiacheng You,Yang Gao |
発行日 | 2024-09-26 12:55:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google