Pose-Graph Attentional Graph Neural Network for Lidar Place Recognition

要約

この論文は、P-GAT と呼ばれるポーズグラフ アテンション グラフ ニューラル ネットワークを提案します。これは、現在一般的なフレーム間検索問題の定式化とは対照的に、場所認識タスクのために連続サブグラフと非連続サブグラフの間で (キー) ノードを比較します。
SOTA の場所認識メソッドに実装されています。
P-GAT は、ポーズグラフ SLAM の概念を利用して、既存のエンコーダーによって生成された、隣接するクラウド記述子間の最大の空間的および時間的情報を使用します。
P-GAT は、イントラアテンションおよびインターアテンションおよびグラフ ニューラル ネットワークを活用して、ユークリッド空間内の近くの場所でキャプチャされた点群と、特徴空間へのその埋め込みを関連付けます。
大規模に公開されているデータセットでの実験結果は、明確な特徴が欠如しているシーンや、トレーニング環境とテスト環境の分布が異なる場合 (ドメイン適応) におけるアプローチの有効性を示しています。
さらに、最先端技術との徹底的な比較により、パフォーマンスの向上が示されています。
コードは https://github.com/csiro-robotics/P-GAT で入手できます。

要約(オリジナル)

This paper proposes a pose-graph attentional graph neural network, called P-GAT, which compares (key)nodes between sequential and non-sequential sub-graphs for place recognition tasks as opposed to a common frame-to-frame retrieval problem formulation currently implemented in SOTA place recognition methods. P-GAT uses the maximum spatial and temporal information between neighbour cloud descriptors — generated by an existing encoder — utilising the concept of pose-graph SLAM. Leveraging intra- and inter-attention and graph neural network, P-GAT relates point clouds captured in nearby locations in Euclidean space and their embeddings in feature space. Experimental results on the large-scale publically available datasets demonstrate the effectiveness of our approach in scenes lacking distinct features and when training and testing environments have different distributions (domain adaptation). Further, an exhaustive comparison with the state-of-the-art shows improvements in performance gains. Code is available at https://github.com/csiro-robotics/P-GAT.

arxiv情報

著者 Milad Ramezani,Liang Wang,Joshua Knights,Zhibin Li,Pauline Pounds,Peyman Moghadam
発行日 2023-11-22 02:16:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク