MonoProb: Self-Supervised Monocular Depth Estimation with Interpretable Uncertainty

要約

自己監視型単眼深度推定手法は、環境分析用の自動運転車などの重要なアプリケーションでの使用を目的としています。
これらのアプローチの潜在的な不完全性を回避するには、深度推定に依存する意思決定システムを導くために、予測の信頼度を定量化することが重要です。
この論文では、解釈可能な不確実性を返す新しい教師なし単眼深度推定法、MonoProb を提案します。これは、不確実性が深度予測におけるネットワークの予想誤差を反映していることを意味します。
私たちは、教師なし単眼深度モデルを訓練するために使用されるステレオまたは動きからの構造パラダイムを確率論的問題として再考します。
このモデルは、単一の前方パス推論内で、推論時間を増加させることなく、深さの予測とその信頼度の尺度を提供します。
次に、教師が出力した深さに関する確率分布である疑似グラウンド トゥルースによって生徒が監視される新しい自己蒸留損失を使用して、深さと不確実性に関するパフォーマンスを向上させます。
モデルのパフォーマンスを定量化するために、従来のメトリクスとは異なり、不確実性予測の絶対的なパフォーマンスを測定する新しいメトリクスを設計します。
私たちの実験では、標準的な深さと不確実性のメトリクス、およびカスタマイズされたメトリクスに関して、私たちの方法によって達成された機能強化が強調されています。
https://github.com/CEA-LIST/MonoProb

要約(オリジナル)

Self-supervised monocular depth estimation methods aim to be used in critical applications such as autonomous vehicles for environment analysis. To circumvent the potential imperfections of these approaches, a quantification of the prediction confidence is crucial to guide decision-making systems that rely on depth estimation. In this paper, we propose MonoProb, a new unsupervised monocular depth estimation method that returns an interpretable uncertainty, which means that the uncertainty reflects the expected error of the network in its depth predictions. We rethink the stereo or the structure-from-motion paradigms used to train unsupervised monocular depth models as a probabilistic problem. Within a single forward pass inference, this model provides a depth prediction and a measure of its confidence, without increasing the inference time. We then improve the performance on depth and uncertainty with a novel self-distillation loss for which a student is supervised by a pseudo ground truth that is a probability distribution on depth output by a teacher. To quantify the performance of our models we design new metrics that, unlike traditional ones, measure the absolute performance of uncertainty predictions. Our experiments highlight enhancements achieved by our method on standard depth and uncertainty metrics as well as on our tailored metrics. https://github.com/CEA-LIST/MonoProb

arxiv情報

著者 Remi Marsal Florian Chabot,Angelique Loesch,William Grolleau,Hichem Sahbi
発行日 2023-11-10 15:55:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク