要約
学習はビジョンベースのナビゲーションのための強力なツールを提供しますが、学習ベースのポリシーの機能は限られたトレーニング データによって制限されます。
複数の種類のロボットを含む、利用可能なすべてのソースからのデータを組み合わせることができれば、より強力なナビゲーション モデルをトレーニングできるでしょう。
この論文では、視覚ベースのナビゲーションのための一般的な目標条件付きモデルを、多くの異なるが構造的に類似したロボットから取得したデータに基づいてトレーニングし、環境や実施形態全体で広範な一般化を可能にする方法を研究します。
私たちは、時間的コンテキストや標準化されたアクション スペースの使用など、ロボット間で効果的にデータを共有するために必要な設計上の決定を分析し、異種データセットからトレーニングされたオムニポリシーが単一のデータセットでトレーニングされたポリシーよりも優れていることを実証します。
私たちは 6 台の異なるロボットからの 60 時間のナビゲーション軌跡を厳選し、訓練された GNM を、作動が不十分なクアッドローターを含むさまざまな新しいロボットに展開します。
多様なデータでトレーニングすると、センシングと作動の劣化に対する堅牢性につながることがわかりました。
広範な一般化機能を備えた事前トレーニング済みナビゲーション モデルを使用することで、今後新しいロボット上でアプリケーションをブートストラップすることができ、GNM がその方向への一歩となることを期待しています。
データセット、コード、ビデオの詳細については、プロジェクト ページ https://sites.google.com/view/drive-any-robot をご覧ください。
要約(オリジナル)
Learning provides a powerful tool for vision-based navigation, but the capabilities of learning-based policies are constrained by limited training data. If we could combine data from all available sources, including multiple kinds of robots, we could train more powerful navigation models. In this paper, we study how a general goal-conditioned model for vision-based navigation can be trained on data obtained from many distinct but structurally similar robots, and enable broad generalization across environments and embodiments. We analyze the necessary design decisions for effective data sharing across robots, including the use of temporal context and standardized action spaces, and demonstrate that an omnipolicy trained from heterogeneous datasets outperforms policies trained on any single dataset. We curate 60 hours of navigation trajectories from 6 distinct robots, and deploy the trained GNM on a range of new robots, including an underactuated quadrotor. We find that training on diverse data leads to robustness against degradation in sensing and actuation. Using a pre-trained navigation model with broad generalization capabilities can bootstrap applications on novel robots going forward, and we hope that the GNM represents a step in that direction. For more information on the datasets, code, and videos, please check out our project page https://sites.google.com/view/drive-any-robot.
arxiv情報
著者 | Dhruv Shah,Ajay Sridhar,Arjun Bhorkar,Noriaki Hirose,Sergey Levine |
発行日 | 2023-05-22 04:13:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google