Rapid Exploration for Open-World Navigation with Latent Goal Models

要約

多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて説明します。
私たちの方法の中心となるのは、画像のノンパラメトリックな位相記憶とともに、距離とアクションの学習された潜在変数モデルです。
情報ボトルネックを使用して学習したポリシーを正規化し、(i) 目標のコンパクトな視覚的表現、(ii) 一般化機能の向上、(iii) 探索のために実現可能な目標をサンプリングするメカニズムを提供します。
以前の経験による大規模なオフライン データセットでトレーニングされたこのモデルは、タスクに無関係な注意をそらすものに対して堅牢な視覚的目標の表現を取得します。
オープンワールド探査シナリオで移動地上ロボット上で方法を実証します。
最大 80 メートル離れたゴールの画像が与えられると、私たちの手法はその表現を活用して、これまで見えなかった障害物や気象条件の中でも、20 分以内にゴールを探索して発見します。
プロジェクトの Web サイトで実験のビデオと、使用されている現実世界のデータセットに関する情報を https://sites.google.com/view/recon-robot でご覧ください。

要約(オリジナル)

We describe a robotic learning system for autonomous exploration and navigation in diverse, open-world environments. At the core of our method is a learned latent variable model of distances and actions, along with a non-parametric topological memory of images. We use an information bottleneck to regularize the learned policy, giving us (i) a compact visual representation of goals, (ii) improved generalization capabilities, and (iii) a mechanism for sampling feasible goals for exploration. Trained on a large offline dataset of prior experience, the model acquires a representation of visual goals that is robust to task-irrelevant distractors. We demonstrate our method on a mobile ground robot in open-world exploration scenarios. Given an image of a goal that is up to 80 meters away, our method leverages its representation to explore and discover the goal in under 20 minutes, even amidst previously-unseen obstacles and weather conditions. Please check out the project website for videos of our experiments and information about the real-world dataset used at https://sites.google.com/view/recon-robot.

arxiv情報

著者 Dhruv Shah,Benjamin Eysenbach,Gregory Kahn,Nicholas Rhinehart,Sergey Levine
発行日 2023-10-11 09:07:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク