要約
この論文では、Hybrid Depth-augmented Panoramic Visual SLAM (HDPV-SLAM) と呼ばれる新しいビジュアル同時ローカリゼーションおよびマッピング (SLAM) を提案し、パノラマ カメラとタイトルのマルチビーム LiDAR スキャナーを使用して、正確でメートル法でスケーリングされた車両軌跡を生成します。
RGB-D SLAM は HDPV-SLAM の設計基盤として機能し、視覚的特徴に深度情報を追加しました。
RGB-D SLAM システムの性能を制限する 2 つの問題を克服しようとしています。
最初の障壁は、LiDAR 深度のまばらさです。これにより、RGB 画像から抽出された視覚的特徴と関連付けることが困難になります。
深層学習 (DL) に基づいてスパース LiDAR 深度を反復的に高密度化するための深度推定モジュールを提案することで、この問題に対処します。
2 つ目の問題は、パノラマ カメラと傾斜 LiDAR センサーの間の水平方向のオーバーラップ カバレッジの重大な不足によって引き起こされる深度関連の課題に関連しています。
この困難を克服するために、2 つの独立した手順、フィーチャの三角測量と深度推定によって推定された深度情報を最適に組み合わせるハイブリッド深度関連付けモジュールを提示します。
このハイブリッド深度関連付けモジュールは、特徴追跡の段階で、視覚的特徴が追跡された三角形分割された深度と DL ベースの修正された深度の間で、より正確な深度情報を最大限に活用することを目的としています。
18.95 km の長さのヨーク大学と Teledyne Optech (YUTO) MMS データセットを使用して、HDPV-SLAM のパフォーマンスを評価しました。
実験結果は、提案された 2 つのモジュールが HDPV-SLAM のパフォーマンスに大きく貢献し、最先端の (SOTA) SLAM システムよりも優れていることを示しています。
要約(オリジナル)
This paper proposes a novel visual simultaneous localization and mapping (SLAM), called Hybrid Depth-augmented Panoramic Visual SLAM (HDPV-SLAM), generating accurate and metrically scaled vehicle trajectories using a panoramic camera and a titled multi-beam LiDAR scanner. RGB-D SLAM served as the design foundation for HDPV-SLAM, adding depth information to visual features. It seeks to overcome the two problems that limit the performance of RGB-D SLAM systems. The first barrier is the sparseness of LiDAR depth, which makes it challenging to connect it with visual features extracted from the RGB image. We address this issue by proposing a depth estimation module for iteratively densifying sparse LiDAR depth based on deep learning (DL). The second issue relates to the challenges in the depth association caused by a significant deficiency of horizontal overlapping coverage between the panoramic camera and the tilted LiDAR sensor. To overcome this difficulty, we present a hybrid depth association module that optimally combines depth information estimated by two independent procedures, feature triangulation and depth estimation. This hybrid depth association module intends to maximize the use of more accurate depth information between the triangulated depth with visual features tracked and the DL-based corrected depth during a phase of feature tracking. We assessed HDPV-SLAM’s performance using the 18.95 km-long York University and Teledyne Optech (YUTO) MMS dataset. Experimental results demonstrate that the proposed two modules significantly contribute to HDPV-SLAM’s performance, which outperforms the state-of-the-art (SOTA) SLAM systems.
arxiv情報
著者 | Mostafa Ahmadi,Amin Alizadeh Naeini,Zahra Arjmandi,Yujia Zhang,Mohammad Moein Sheikholeslami,Gunho Sohn |
発行日 | 2023-01-27 16:25:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google