要約
未知の環境での自律ナビゲーションは困難であり、環境のナビゲーション可能性を解析するために幾何学的な情報と意味論的な情報の両方を考慮する必要があります。
この研究では、シーンのセマンティクスとジオメトリを同時に考慮する、新しい空間モデリング フレームワークである Visual-Geometry Sparse Gaussian Process (VG-SGP) を提案します。
私たちが提案するアプローチは、セマンティックに関連付けられたジオメトリを認識できないビジュアル プランナーと、実世界のナビゲーションにおいて非常に重要なセマンティック情報を完全に見落とすジオメトリック プランナーの限界を克服できます。
提案された方法は、統合された方法で二重のスパース ガウス プロセスを利用します。
1 つ目は幾何学的にナビゲート可能な空間を予測するようにトレーニングされ、2 つ目は意味論的にナビゲート可能な領域を予測します。
この統合モデルは、重複する (幾何学的および意味論的な) ナビゲート可能な空間を正確に特定できます。
シミュレーションと現実世界の実験は、提案された VG-SGP モデルの能力が、革新的なナビゲーション戦略と組み合わせることで、視覚的または幾何学的ナビゲーション アルゴリズムのみに依存するモデルよりも優れたパフォーマンスを発揮することを実証し、優れた適応動作を強調しています。
要約(オリジナル)
Autonomous navigation in unknown environments is challenging and demands the consideration of both geometric and semantic information in order to parse the navigability of the environment. In this work, we propose a novel space modeling framework, Visual-Geometry Sparse Gaussian Process (VG-SGP), that simultaneously considers semantics and geometry of the scene. Our proposed approach can overcome the limitation of visual planners that fail to recognize geometry associated with the semantic and the geometric planners that completely overlook the semantic information which is very critical in real-world navigation. The proposed method leverages dual Sparse Gaussian Processes in an integrated manner; the first is trained to forecast geometrically navigable spaces while the second predicts the semantically navigable areas. This integrated model is able to pinpoint the overlapping (geometric and semantic) navigable space. The simulation and real-world experiments demonstrate that the ability of the proposed VG-SGP model, coupled with our innovative navigation strategy, outperforms models solely reliant on visual or geometric navigation algorithms, highlighting a superior adaptive behavior.
arxiv情報
著者 | Mahmoud Ali,Durgkant Pushp,Zheng Chen,Lantao Liu |
発行日 | 2024-07-09 04:51:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google