Continuously Improving Mobile Manipulation with Autonomous Real-World RL

要約

我々は、広範な機器や人間による監視なしでポリシーを学習できる、モバイル操作のための完全に自律的な現実世界の RL フレームワークを紹介します。
これは、1) オブジェクトの相互作用に向けて探索を導き、目標状態近くでの停滞を防ぐタスク関連の自律性、2) 行動事前分布における基本的なタスクの知識を活用することによる効率的なポリシー学習、および 3) 人間が解釈可能なセマンティクスを組み合わせた一般的な報酬の定式化によって可能になります。
低レベルのきめ細かい観察による情報。
私たちのアプローチにより、Spot ロボットが 4 つの困難なモバイル操作タスクのセットでパフォーマンスを継続的に向上させることができ、タスク全体で 80% の平均成功率が得られ、既存のアプローチより 3 ~ 4 倍向上することが実証されました。
ビデオは https://continual-mobile-manip.github.io/ でご覧いただけます。

要約(オリジナル)

We present a fully autonomous real-world RL framework for mobile manipulation that can learn policies without extensive instrumentation or human supervision. This is enabled by 1) task-relevant autonomy, which guides exploration towards object interactions and prevents stagnation near goal states, 2) efficient policy learning by leveraging basic task knowledge in behavior priors, and 3) formulating generic rewards that combine human-interpretable semantic information with low-level, fine-grained observations. We demonstrate that our approach allows Spot robots to continually improve their performance on a set of four challenging mobile manipulation tasks, obtaining an average success rate of 80% across tasks, a 3-4 improvement over existing approaches. Videos can be found at https://continual-mobile-manip.github.io/

arxiv情報

著者 Russell Mendonca,Emmanuel Panov,Bernadette Bucher,Jiuguang Wang,Deepak Pathak
発行日 2024-09-30 17:59:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク