Converting Depth Images and Point Clouds for Feature-based Pose Estimation

要約

近年、深度センサーはますます手頃な価格になり、ますます多くのロボット システムに採用されています。
ただし、モノモーダルまたはマルチモーダルのセンサー登録は、さらなる処理に必要なステップであることが多く、生の深度画像や点群では多くの課題に直面しています。
この論文では、従来の深度画像では基本的に隠されていた空間の詳細を視覚化できる画像に深度データを変換する方法を紹介します。
ノイズ除去後、近傍の点によって 2 つの法線ベクトルが形成され、その差分がこの新しい変換にエンコードされます。
方位角画像と比較して、私たちの方法では、より鮮明な輪郭と詳細を備えた、より明るく、高コントラストの画像が得られます。
ビジュアル オドメトリ タスクと RGB-D SLAM の両方の変換の特徴ベースの姿勢推定をテストしました。
テストされたすべての機能 (AKAZE、ORB、SIFT、SURF) について、新しい屈曲画像は方位角画像よりも優れた結果をもたらし、深度データと従来のコンピューター ビジョンの間のギャップを埋める大きな可能性を示しています。
ソース コードは、https://rlsch.github.io/ Depth-flexion-conversion から入手できます。

要約(オリジナル)

In recent years, depth sensors have become more and more affordable and have found their way into a growing amount of robotic systems. However, mono- or multi-modal sensor registration, often a necessary step for further processing, faces many challenges on raw depth images or point clouds. This paper presents a method of converting depth data into images capable of visualizing spatial details that are basically hidden in traditional depth images. After noise removal, a neighborhood of points forms two normal vectors whose difference is encoded into this new conversion. Compared to Bearing Angle images, our method yields brighter, higher-contrast images with more visible contours and more details. We tested feature-based pose estimation of both conversions in a visual odometry task and RGB-D SLAM. For all tested features, AKAZE, ORB, SIFT, and SURF, our new Flexion images yield better results than Bearing Angle images and show great potential to bridge the gap between depth data and classical computer vision. Source code is available here: https://rlsch.github.io/depth-flexion-conversion.

arxiv情報

著者 Robert Lösch,Mark Sastuba,Jonas Toth,Bernhard Jung
発行日 2023-10-23 13:29:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, I.4.3 パーマリンク