(LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place Recognition

要約

タイトル:(LC) $^2$:クロスモーダルな場所認識のためのLiDARカメラループ制約
要約:自律ナビゲーションにおける位置特定は困難な課題であり、ロボットの位置認識と再ローカライズのために、ループ検出アルゴリズムは環境の変化を克服する必要があります。したがって、測定値をローカリゼーション特徴量に一貫して変換するために、深層学習が広く研究されてきました。通りの景色は簡単にアクセスできますが、画像は見た目の変化に弱いです。LiDARは精密な構造情報を堅牢に提供できますが、点群データベースを構築するのは高価であり、点群は限られた場所にしか存在しません。従来の研究とは異なり、2D画像と3D点群の共有埋め込みを直接生成するためにネットワークをトレーニングする従来の手法とは異なり、両方のデータをマッチングするために2.5D深度画像に変換します。本研究では、(LC) $^2$と呼ばれる新しいクロスマッチング手法を提案し、事前の点群マップなしでLiDARローカリゼーションを達成します。そのため、LiDAR測定値はレンジイメージの形式で表され、モダリティの不一致を減らすためにそれらをマッチングします。次に、ネットワークは不一致とレンジイメージからローカリゼーション特徴量を抽出するためにトレーニングされます。その後、最良のマッチングはポーズグラフでループ因子として使用されます。大幅に異なる照明条件で複数セッションを含む公開データセットを使用して、リダーベースのナビゲーションシステムを画像データベースから最適化できること、逆もまた同様であることを示しました。

要約(オリジナル)

Localization has been a challenging task for autonomous navigation. A loop detection algorithm must overcome environmental changes for the place recognition and re-localization of robots. Therefore, deep learning has been extensively studied for the consistent transformation of measurements into localization descriptors. Street view images are easily accessible; however, images are vulnerable to appearance changes. LiDAR can robustly provide precise structural information. However, constructing a point cloud database is expensive, and point clouds exist only in limited places. Different from previous works that train networks to produce shared embedding directly between the 2D image and 3D point cloud, we transform both data into 2.5D depth images for matching. In this work, we propose a novel cross-matching method, called (LC)$^2$, for achieving LiDAR localization without a prior point cloud map. To this end, LiDAR measurements are expressed in the form of range images before matching them to reduce the modality discrepancy. Subsequently, the network is trained to extract localization descriptors from disparity and range images. Next, the best matches are employed as a loop factor in a pose graph. Using public datasets that include multiple sessions in significantly different lighting conditions, we demonstrated that LiDAR-based navigation systems could be optimized from image databases and vice versa.

arxiv情報

著者 Alex Junho Lee,Seungwon Song,Hyungtae Lim,Woojoo Lee,Hyun Myung
発行日 2023-04-17 23:20:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.RO パーマリンク