CLIP-Loc: Multi-modal Landmark Association for Global Localization in Object-based Maps

要約

この論文では、オブジェクトベースの地図とカメラ画像を使用したグローバル位置特定のためのマルチモーダルデータ関連付け方法について説明します。
オブジェクトベースのマップを使用したグローバルローカライゼーションまたは再ローカライゼーションでは、既存の方法は通常、検出されたオブジェクトとランドマークのすべての可能な組み合わせを同じオブジェクトカテゴリと照合し、続いて RANSAC またはブルートフォース検索を使用してインライア抽出を行うことに頼っています。
対応候補の指数関数的な増加によりランドマークの数が増加すると、このアプローチは実行不可能になります。
この論文では、視覚言語モデル (VLM) を使用して、自然言語記述でランドマークにラベルを付け、画像観察との概念的な類似性に基づいて対応関係を抽出することを提案します。
詳細なテキスト情報を活用することで、オブジェクト カテゴリのみを使用する方法と比較して、このアプローチは効率的に対応関係を抽出します。
実験を通じて、提案手法がベースライン手法と比較して少ない反復でより正確な大域位置特定を可能にし、その効率性を示すことを実証します。

要約(オリジナル)

This paper describes a multi-modal data association method for global localization using object-based maps and camera images. In global localization, or relocalization, using object-based maps, existing methods typically resort to matching all possible combinations of detected objects and landmarks with the same object category, followed by inlier extraction using RANSAC or brute-force search. This approach becomes infeasible as the number of landmarks increases due to the exponential growth of correspondence candidates. In this paper, we propose labeling landmarks with natural language descriptions and extracting correspondences based on conceptual similarity with image observations using a Vision Language Model (VLM). By leveraging detailed text information, our approach efficiently extracts correspondences compared to methods using only object categories. Through experiments, we demonstrate that the proposed method enables more accurate global localization with fewer iterations compared to baseline methods, exhibiting its efficiency.

arxiv情報

著者 Shigemichi Matsuzaki,Takuma Sugino,Kazuhito Tanaka,Zijun Sha,Shintaro Nakaoka,Shintaro Yoshizawa,Kazuhiro Shintani
発行日 2024-02-08 22:59:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク