Scene Action Maps: Behavioural Maps for Navigation without Metric Information

要約

人間は、計量情報なしでナビゲートする能力において優れています。
私たちは、フロアプランや手描きのスケッチなどの抽象的な 2D マップを読み取り、それらを使用して、目に見えないリッチな 3D 環境をナビゲートすることができます。これらのシーンを詳細に計画するために事前に探索する必要はありません。
これは、メトリックレベルでの詳細で正確な空間情報を回避しながら、「廊下を進む」または「右折する」など、相互に接続されたナビゲーション行動として環境を抽象的に表現する能力によって可能になると考えられます。
我々は、行動位相グラフであるシーン アクション マップ (SAM) を導入し、さまざまな 2D マップを SAM に解析する学習可能な地図読み取り方法を提案します。
地図の読み取りは、平面図からスケッチに至るまで、見落とされてきた豊富な既存の抽象的で不正確な地図から、ナビゲーション動作に関する顕著な情報を抽出します。
四足歩行ロボット上に行動ナビゲーション スタックを構築して展開することにより、ナビゲーションに関する SAM のパフォーマンスを評価します。
ビデオと詳細情報は、https://scene-action-maps.github.io でご覧いただけます。

要約(オリジナル)

Humans are remarkable in their ability to navigate without metric information. We can read abstract 2D maps, such as floor-plans or hand-drawn sketches, and use them to navigate in unseen rich 3D environments, without requiring prior traversals to map out these scenes in detail. We posit that this is enabled by the ability to represent the environment abstractly as interconnected navigational behaviours, e.g., ‘follow the corridor’ or ‘turn right’, while avoiding detailed, accurate spatial information at the metric level. We introduce the Scene Action Map (SAM), a behavioural topological graph, and propose a learnable map-reading method, which parses a variety of 2D maps into SAMs. Map-reading extracts salient information about navigational behaviours from the overlooked wealth of pre-existing, abstract and inaccurate maps, ranging from floor-plans to sketches. We evaluate the performance of SAMs for navigation, by building and deploying a behavioural navigation stack on a quadrupedal robot. Videos and more information is available at: https://scene-action-maps.github.io.

arxiv情報

著者 Joel Loo,David Hsu
発行日 2024-05-13 17:25:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク