A New Dataset for Monocular Depth Estimation Under Viewpoint Shifts

要約

単眼の奥行き推定は、自動運転やその他の多くのコンピューター ビジョン アプリケーションにとって重要なタスクです。
この分野では大きな進歩が見られましたが、視点の移動が奥行き推定モデルに及ぼす影響については、依然として十分に解明されていません。
この論文では、単眼の奥行き推定パフォーマンスに対するさまざまなカメラの位置と方向の影響を定量化するための新しいデータセットと評価方法論を紹介します。
私たちは、ホモグラフィー推定と物体検出に基づいたグラウンド トゥルース戦略を提案し、高価な LIDAR センサーの必要性を排除します。
私たちは、複数の視点から道路シーンの多様なデータセットを収集し、それを使用して、幾何学的シフトに対する最新の深さ推定モデルの堅牢性を評価します。
公開データセットで戦略の妥当性を評価した後、現在のモデルの限界について貴重な洞察を提供し、現実世界のアプリケーションにおける視点の変化を考慮することの重要性を強調します。

要約(オリジナル)

Monocular depth estimation is a critical task for autonomous driving and many other computer vision applications. While significant progress has been made in this field, the effects of viewpoint shifts on depth estimation models remain largely underexplored. This paper introduces a novel dataset and evaluation methodology to quantify the impact of different camera positions and orientations on monocular depth estimation performance. We propose a ground truth strategy based on homography estimation and object detection, eliminating the need for expensive lidar sensors. We collect a diverse dataset of road scenes from multiple viewpoints and use it to assess the robustness of a modern depth estimation model to geometric shifts. After assessing the validity of our strategy on a public dataset, we provide valuable insights into the limitations of current models and highlight the importance of considering viewpoint variations in real-world applications.

arxiv情報

著者 Aurel Pjetri,Stefano Caprasecca,Leonardo Taccari,Matteo Simoncini,Henrique Piñeiro Monteagudo,Walter Wallace,Douglas Coimbra de Andrade,Francesco Sambo,Andrew David Bagdanov
発行日 2024-09-27 15:59:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク