CVTNet: A Cross-View Transformer Network for Place Recognition Using LiDAR Data

要約

LiDARに基づく場所認識(LPR)は、GPSが使えない環境下で以前に訪れた場所を特定するための、自律走行車の最も重要なコンポーネントの一つである。既存のLPR手法の多くは、異なるビューを考慮せずに入力点群のありふれた表現を用いており、LiDARセンサーからの情報を十分に活用できていない可能性がある。本論文では、LiDARデータから生成されたレンジイメージビュー(RIV)とバーズアイビュー(BEV)を融合するために、CVTNetと呼ばれるクロスビュー変換器ベースのネットワークを提案します。CVTNetは、イントラ変換器を用いてビュー内の相関関係を抽出し、インター変換器を用いて2つの異なるビュー間の相関関係を抽出します。これに基づき,提案するCVTNetは,各レーザースキャンのヨー角不変のグローバルディスクリプタをエンドツーエンドで生成し,現在のクエリスキャンと事前に構築されたデータベースとのディスクリプタマッチングにより,以前に見た場所を取得する.我々は,異なるセンサセットと環境条件で収集された3つのデータセットで本手法を評価した.その結果,本手法は,視点変更と長時間の移動に対して強いロバスト性を持ち,最新のLPR手法を凌駕することが分かった.さらに、本手法は一般的なLiDARのフレームレートよりも高速に動作する良好なリアルタイム性能を有しています。本手法の実装は、オープンソースとして https://github.com/BIT-MJY/CVTNet で公開されています。

要約(オリジナル)

LiDAR-based place recognition (LPR) is one of the most crucial components of autonomous vehicles to identify previously visited places in GPS-denied environments. Most existing LPR methods use mundane representations of the input point cloud without considering different views, which may not fully exploit the information from LiDAR sensors. In this paper, we propose a cross-view transformer-based network, dubbed CVTNet, to fuse the range image views (RIVs) and bird’s eye views (BEVs) generated from the LiDAR data. It extracts correlations within the views themselves using intra-transformers and between the two different views using inter-transformers. Based on that, our proposed CVTNet generates a yaw-angle-invariant global descriptor for each laser scan end-to-end online and retrieves previously seen places by descriptor matching between the current query scan and the pre-built database. We evaluate our approach on three datasets collected with different sensor setups and environmental conditions. The experimental results show that our method outperforms the state-of-the-art LPR methods with strong robustness to viewpoint changes and long-time spans. Furthermore, our approach has a good real-time performance that can run faster than the typical LiDAR frame rate. The implementation of our method is released as open source at: https://github.com/BIT-MJY/CVTNet.

arxiv情報

著者 Junyi Ma,Guangming Xiong,Jingyi Xu,Xieyuanli Chen
発行日 2023-02-03 11:37:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク