要約
堅牢な障害物回避は、目標主導型の屋内ナビゲーション タスクを成功させるための重要なステップの 1 つです。視覚画像に障害物が存在しないことと、検出漏れの可能性があるため、視覚画像ベースの障害物回避技術は依然として不十分な堅牢性を抱えています。
それを軽減するために、この論文では、堅牢な障害物回避のための新しい暗黙的障害物マップ駆動の屋内ナビゲーション フレームワークを提案します。このフレームワークでは、暗黙的障害物マップは、視覚的な画像ではなく過去の試行錯誤の経験に基づいて学習されます。
ナビゲーション効率をさらに向上させるために、非ローカル ターゲット メモリ集約モジュールは、非ローカル ネットワークを利用して、ナビゲーション プロセス中にターゲットのセマンティクスとターゲット方向の手がかりの間の固有の関係をモデル化し、最も多くの情報をマイニングできるように設計されています。
ターゲットと相関のあるオブジェクトのナビゲーション決定のための手がかり。
AI2-Thor および RoboTHOR ベンチマークに関する広範な実験結果により、提案した方法の優れた障害物回避とナビゲーション効率が検証されています。
コアのソース コードは https://github.com/xwaiyy123/object-navigation で入手できます。
要約(オリジナル)
Robust obstacle avoidance is one of the critical steps for successful goal-driven indoor navigation tasks.Due to the obstacle missing in the visual image and the possible missed detection issue, visual image-based obstacle avoidance techniques still suffer from unsatisfactory robustness. To mitigate it, in this paper, we propose a novel implicit obstacle map-driven indoor navigation framework for robust obstacle avoidance, where an implicit obstacle map is learned based on the historical trial-and-error experience rather than the visual image. In order to further improve the navigation efficiency, a non-local target memory aggregation module is designed to leverage a non-local network to model the intrinsic relationship between the target semantic and the target orientation clues during the navigation process so as to mine the most target-correlated object clues for the navigation decision. Extensive experimental results on AI2-Thor and RoboTHOR benchmarks verify the excellent obstacle avoidance and navigation efficiency of our proposed method. The core source code is available at https://github.com/xwaiyy123/object-navigation.
arxiv情報
著者 | Wei Xie,Haobo Jiang,Shuo Gu,Jin Xie |
発行日 | 2023-08-24 15:10:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google