Unsupervised confidence for LiDAR depth maps and applications

要約

奥行き知覚は、ロボットや自律走行など、多くの分野で重要な役割を果たしている。そのため、LiDARなどの深度センサーが多くのアプリケーションで急速に普及しています。これらのセンサーで生成された3次元点群は、フレーム化されたシーンを意味的に理解するために、しばしばRGBカメラと結合される必要があります。通常、前者はカメラ画像平面上に投影され、疎な深度マップが生成されます。しかし、この処理は、すべての深度センサに影響する本質的な問題と相まって、最終出力にノイズと重大な異常値をもたらす。本論文では、LiDARの疎な深度マップの信頼度を推定することを学習し、外れ値をフィルタリングすることを可能にすることで、この問題に明示的に対処することを目的とした効果的な教師なしフレームワークを提案する。KITTIデータセットでの実験結果は、我々のフレームワークがこの目的に対して優れていることを強調するものである。さらに、この成果がいかに幅広いタスクを改善することができるかを示す。

要約(オリジナル)

Depth perception is pivotal in many fields, such as robotics and autonomous driving, to name a few. Consequently, depth sensors such as LiDARs rapidly spread in many applications. The 3D point clouds generated by these sensors must often be coupled with an RGB camera to understand the framed scene semantically. Usually, the former is projected over the camera image plane, leading to a sparse depth map. Unfortunately, this process, coupled with the intrinsic issues affecting all the depth sensors, yields noise and gross outliers in the final output. Purposely, in this paper, we propose an effective unsupervised framework aimed at explicitly addressing this issue by learning to estimate the confidence of the LiDAR sparse depth map and thus allowing for filtering out the outliers. Experimental results on the KITTI dataset highlight that our framework excels for this purpose. Moreover, we demonstrate how this achievement can improve a wide range of tasks.

arxiv情報

著者 Andrea Conti,Matteo Poggi,Filippo Aleotti,Stefano Mattoccia
発行日 2022-10-06 17:59:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク