要約
LiDAR ベースの場所認識 (LPR) は、GPS が拒否された環境で以前に訪れた場所を識別するための自動運転車の最も重要なコンポーネントの 1 つです。
既存の LPR 手法のほとんどは、さまざまなビューを考慮せずに入力点群のありきたりな表現を使用するため、LiDAR センサーからの情報を十分に活用できない可能性があります。
この論文では、LiDAR データから生成された距離画像ビュー (RIV) と鳥瞰図ビュー (BEV) を融合する、CVTNet と呼ばれるクロスビュー トランスフォーマー ベースのネットワークを提案します。
イントラトランスフォーマーを使用してビュー自体内の相関関係を抽出し、インタートランスフォーマーを使用して 2 つの異なるビュー間の相関関係を抽出します。
これに基づいて、私たちが提案する CVTNet は、各レーザー スキャンに対してヨー角不変のグローバル記述子をエンドツーエンドでオンラインで生成し、現在のクエリ スキャンと事前に構築されたデータベース間の記述子の一致によって以前に見た場所を取得します。
異なるセンサー設定と環境条件で収集された 3 つのデータセットに対するアプローチを評価します。
実験結果は、私たちの方法が視点の変更と長い時間スパンに対する強いロバスト性で最先端のLPR方法よりも優れていることを示しています。
さらに、私たちのアプローチは優れたリアルタイム パフォーマンスを備えており、一般的な LiDAR フレーム レートよりも高速に実行できます。
私たちのメソッドの実装は、オープンソースとして https://github.com/BIT-MJY/CVTNet でリリースされています。
要約(オリジナル)
LiDAR-based place recognition (LPR) is one of the most crucial components of autonomous vehicles to identify previously visited places in GPS-denied environments. Most existing LPR methods use mundane representations of the input point cloud without considering different views, which may not fully exploit the information from LiDAR sensors. In this paper, we propose a cross-view transformer-based network, dubbed CVTNet, to fuse the range image views (RIVs) and bird’s eye views (BEVs) generated from the LiDAR data. It extracts correlations within the views themselves using intra-transformers and between the two different views using inter-transformers. Based on that, our proposed CVTNet generates a yaw-angle-invariant global descriptor for each laser scan end-to-end online and retrieves previously seen places by descriptor matching between the current query scan and the pre-built database. We evaluate our approach on three datasets collected with different sensor setups and environmental conditions. The experimental results show that our method outperforms the state-of-the-art LPR methods with strong robustness to viewpoint changes and long-time spans. Furthermore, our approach has a good real-time performance that can run faster than the typical LiDAR frame rate. The implementation of our method is released as open source at: https://github.com/BIT-MJY/CVTNet.
arxiv情報
著者 | Junyi Ma,Guangming Xiong,Jingyi Xu,Xieyuanli Chen |
発行日 | 2023-10-06 06:26:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google