DOC-Depth: A novel approach for dense depth ground truth generation

要約

正確な奥行き情報は、多くのコンピュータビジョンアプリケーションにとって不可欠である。しかし、利用可能なデータセットの記録方法では、大規模な動的環境において完全に密な正確な深度推定を行うことはできません。本論文では、あらゆるLiDARセンサーから高密度の奥行きを生成するための、新しく、効率的で、導入しやすいアプローチであるDOC-Depthを紹介する。LiDARオドメトリを用いて一貫性のある高密度の3D環境を再構築した後、我々の最先端の動的オブジェクト分類手法であるDOCにより、動的オブジェクトのオクルージョンに自動的に対処します。さらに、DOC-Depthは高速でスケーラブルであるため、サイズと時間の点で制約のないデータセットを作成することができます。我々はKITTIデータセット上で我々のアプローチの有効性を実証し、その密度を16.1%から71.2%に向上させ、この領域における将来の研究を促進するために、この新しい完全に密な深度アノテーションを公開する。また、様々なLiDARセンサーを使用し、複数の環境下での結果も紹介します。すべてのソフトウェアコンポーネントは研究コミュニティ向けに公開されています。

要約(オリジナル)

Accurate depth information is essential for many computer vision applications. Yet, no available dataset recording method allows for fully dense accurate depth estimation in a large scale dynamic environment. In this paper, we introduce DOC-Depth, a novel, efficient and easy-to-deploy approach for dense depth generation from any LiDAR sensor. After reconstructing consistent dense 3D environment using LiDAR odometry, we address dynamic objects occlusions automatically thanks to DOC, our state-of-the art dynamic object classification method. Additionally, DOC-Depth is fast and scalable, allowing for the creation of unbounded datasets in terms of size and time. We demonstrate the effectiveness of our approach on the KITTI dataset, improving its density from 16.1% to 71.2% and release this new fully dense depth annotation, to facilitate future research in the domain. We also showcase results using various LiDAR sensors and in multiple environments. All software components are publicly available for the research community.

arxiv情報

著者 Simon de Moreau,Mathias Corsia,Hassan Bouchiba,Yasser Almehio,Andrei Bursuc,Hafid El-Idrissi,Fabien Moutarde
発行日 2025-02-04 09:18:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク