Contour Context: Abstract Structural Distribution for 3D LiDAR Loop Detection and Metric Pose Estimation

要約

この論文では、都市の自動運転シナリオを対象とした、正確な 3-DoF メトリック姿勢推定を備えた、シンプルで効果的かつ効率的なトポロジカル ループ クロージャ検出パイプラインである \textit{Contour Context} を提案します。
3D LiDAR ポイントから投影されたデカルト鳥瞰図 (BEV) 画像を構造の層状分布として解釈します。
BEV から標高情報を復元するには、BEV をさまざまな高さでスライスし、各レベルで接続されたピクセルが等高線を形成します。
各輪郭は、抽象的な情報 (ピクセル数、中心位置、共分散、平均高さなど) によってパラメーター化されます。
2 つの BEV の類似度は、連続した離散的および連続的なステップで計算されます。
最初のステップでは、特定の場所の等高線によって形成されるグラフのような星座の幾何学的コンセンサスを検討します。
2 番目のステップでは、等高線の大部分を 2.5D ガウス混合モデルとしてモデル化します。これは、相関を計算し、連続空間での相対変換を最適化するために使用されます。
検索キーは、階層化された KD ツリーによってインデックス化されたデータベースの検索を高速化するように設計されています。
公開データセットに関する最近の研究と比較することにより、この方法の有効性を検証します。

要約(オリジナル)

This paper proposes \textit{Contour Context}, a simple, effective, and efficient topological loop closure detection pipeline with accurate 3-DoF metric pose estimation, targeting the urban utonomous driving scenario. We interpret the Cartesian birds’ eye view (BEV) image projected from 3D LiDAR points as layered distribution of structures. To recover elevation information from BEVs, we slice them at different heights, and connected pixels at each level will form contours. Each contour is parameterized by abstract information, e.g., pixel count, center position, covariance, and mean height. The similarity of two BEVs is calculated in sequential discrete and continuous steps. The first step considers the geometric consensus of graph-like constellations formed by contours in particular localities. The second step models the majority of contours as a 2.5D Gaussian mixture model, which is used to calculate correlation and optimize relative transform in continuous space. A retrieval key is designed to accelerate the search of a database indexed by layered KD-trees. We validate the efficacy of our method by comparing it with recent works on public datasets.

arxiv情報

著者 Binqian Jiang,Shaojie Shen
発行日 2023-02-13 07:18:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク