LiDAR-Generated Images Derived Keypoints Assisted Point Cloud Registration Scheme in Odometry Estimation

要約

キーポイントの検出と説明は、ビジュアル オドメトリ (VO)、ビジュアル ナビゲーション、同時位置特定とマッピング (SLAM) などのさまざまなロボット工学および自律アプリケーションにおいて極めて重要な役割を果たします。
従来のカメラ画像では無数のキーポイント検出器と記述子が広範囲に研究されてきましたが、LiDAR で生成された画像、つまり反射率画像や距離画像に関連したこれらの技術の有効性は評価されていません。
これらの画像は、雨や霧などの悪条件にも耐えられることから注目を集めています。
さらに、特に LiDAR センサーのみに依存する場合、点群登録フェーズで LiDAR 点群によって提供される幾何学的情報を補足する重要なテクスチャ情報が含まれています。
これにより、幾何学的に同一のシナリオ内、または生の点群のすべてが有益であるとは限らず、誤解を招く可能性がある場合に、LiDAR オドメトリ (LO) で発生するドリフトの課題に対処します。
この論文は、包括的な定量的調査を通じて、LiDAR で生成された画像に対する従来の画像キーポイント抽出器と記述子の適用可能性を分析することを目的としています。
さらに、LO の堅牢性と信頼性を向上させるための新しいアプローチを提案します。
キーポイントを抽出した後、点群のダウンサンプリングに進み、その後、オドメトリ推定を目的として点群登録フェーズに統合します。
私たちの実験は、提案されたアプローチが同等の精度を持ちながら、生の点群を使用することで計算オーバーヘッドが削減され、オドメトリ公開率が向上し、ドリフトしやすいシナリオでも優れたパフォーマンスを発揮することを示しています。
これは、LiDAR で生成された画像と LO の統合に関するその後の調査の基礎となります。
私たちのコードは GitHub: https://github.com/TIERS/ws-lidar-as-camera-odom で入手できます。

要約(オリジナル)

Keypoint detection and description play a pivotal role in various robotics and autonomous applications including visual odometry (VO), visual navigation, and Simultaneous localization and mapping (SLAM). While a myriad of keypoint detectors and descriptors have been extensively studied in conventional camera images, the effectiveness of these techniques in the context of LiDAR-generated images, i.e. reflectivity and ranges images, has not been assessed. These images have gained attention due to their resilience in adverse conditions such as rain or fog. Additionally, they contain significant textural information that supplements the geometric information provided by LiDAR point clouds in the point cloud registration phase, especially when reliant solely on LiDAR sensors. This addresses the challenge of drift encountered in LiDAR Odometry (LO) within geometrically identical scenarios or where not all the raw point cloud is informative and may even be misleading. This paper aims to analyze the applicability of conventional image key point extractors and descriptors on LiDAR-generated images via a comprehensive quantitative investigation. Moreover, we propose a novel approach to enhance the robustness and reliability of LO. After extracting key points, we proceed to downsample the point cloud, subsequently integrating it into the point cloud registration phase for the purpose of odometry estimation. Our experiment demonstrates that the proposed approach has comparable accuracy but reduced computational overhead, higher odometry publishing rate, and even superior performance in scenarios prone to drift by using the raw point cloud. This, in turn, lays a foundation for subsequent investigations into the integration of LiDAR-generated images with LO. Our code is available on GitHub: https://github.com/TIERS/ws-lidar-as-camera-odom.

arxiv情報

著者 Haizhou Zhang,Xianjia Yu,Sier Ha,Tomi Westerlund
発行日 2023-09-19 08:55:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク