One-4-All: Neural Potential Fields for Embodied Navigation

要約

ロボティクスの基本的なタスクは、2 つの場所の間を移動することです。
特に、現実世界のナビゲーションでは、高次元の RGB 画像を使用した長期的な計画が必要になる場合があり、これはエンド ツー エンドの学習ベースのアプローチに大きな課題をもたらします。
代わりに、現在のセミパラメトリック手法は、学習したモジュールを、以前に収集した画像のグラフとして表される環境のトポロジー メモリと組み合わせることにより、長期的なナビゲーションを実現します。
ただし、これらのグラフを実際に使用するには、通常、多くのプルーニング ヒューリスティックを調整して、スプリアス エッジを回避し、実行時のメモリ使用量を制限し、適度に高速なグラフ クエリを許可する必要があります。
この作業では、One-4-All (O4A) を紹介します。これは、自己教師ありマニホールド学習を活用して、目標が画像として指定されるグラフのないエンドツーエンドのナビゲーション パイプラインを取得する方法です。
ナビゲーションは、O4A 潜在空間上で連続的に定義されたポテンシャル関数を貪欲に最小化することによって実現されます。
私たちのシステムは、RGB データとコントロールの非専門家探索シーケンスでオフラインでトレーニングされており、深さや姿勢の測定は必要ありません。
O4A が 8 つのシミュレートされた Gibson 屋内環境で長距離目標を達成できることを示し、Jackal UGV プラットフォームを使用して実世界でのナビゲーションの成功をさらに実証します。

要約(オリジナル)

A fundamental task in robotics is to navigate between two locations. In particular, real-world navigation can require long-horizon planning using high-dimensional RGB images, which poses a substantial challenge for end-to-end learning-based approaches. Current semi-parametric methods instead achieve long-horizon navigation by combining learned modules with a topological memory of the environment, often represented as a graph over previously collected images. However, using these graphs in practice typically involves tuning a number of pruning heuristics to avoid spurious edges, limit runtime memory usage and allow reasonably fast graph queries. In this work, we present One-4-All (O4A), a method leveraging self-supervised and manifold learning to obtain a graph-free, end-to-end navigation pipeline in which the goal is specified as an image. Navigation is achieved by greedily minimizing a potential function defined continuously over the O4A latent space. Our system is trained offline on non-expert exploration sequences of RGB data and controls, and does not require any depth or pose measurements. We show that O4A can reach long-range goals in 8 simulated Gibson indoor environments, and further demonstrate successful real-world navigation using a Jackal UGV platform.

arxiv情報

著者 Sacha Morin,Miguel Saavedra-Ruiz,Liam Paull
発行日 2023-03-07 16:25:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク