Pose-Graph Attentional Graph Neural Network for Lidar Place Recognition

要約

本論文では、P-GATと呼ばれるライダーによる場所認識アプローチを提案する。点群同士のペアを比較するのではなく、点群同士の類似性を比較することで、ポーズ・グラフSLAMの概念を利用し、隣接する点群間の空間的・時間的情報を最大限に利用する。P-GATは、注意内・注意間とグラフ・ニューラルネットワークを活用し、ユークリッド空間における近傍の位置で撮影された点群と、特徴空間におけるそれらの埋め込みを関連付ける。一般に公開されている大規模なデータセットを用いた実験の結果、明確な特徴を持たないシーンの認識や、訓練環境とテスト環境の分布が異なる場合(ドメイン適応)において、本アプローチの有効性が実証された。さらに、最先端技術との徹底的な比較により、性能向上の向上を示す。採択され次第、コードを公開する。

要約(オリジナル)

This paper proposes a lidar place recognition approach, called P-GAT, to increase the receptive field between point clouds captured over time. Instead of comparing pairs of point clouds, we compare the similarity between sets of point clouds to use the maximum spatial and temporal information between neighbour clouds utilising the concept of pose-graph SLAM. Leveraging intra- and inter-attention and graph neural network, P-GAT relates point clouds captured in nearby locations in Euclidean space and their embeddings in feature space. Experimental results on the large-scale publically available datasets demonstrate the effectiveness of our approach in recognising scenes lacking distinct features and when training and testing environments have different distributions (domain adaptation). Further, an exhaustive comparison with the state-of-the-art shows improvements in performance gains. Code will be available upon acceptance.

arxiv情報

著者 Milad Ramezani,Liang Wang,Joshua Knights,Zhibin Li,Pauline Pounds,Peyman Moghadam
発行日 2023-08-31 23:17:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク