要約
深層学習に基づくコンピュータビジョンの分野では、深層物体検出の開発により、ユニークなパラダイム(例えば、2段階またはセットベース)およびアーキテクチャ(例えば、Faster-RCNNまたはDETR)がもたらされ、困難なベンチマークデータセットにおいて優れた性能を実現することが可能となった。にもかかわらず、学習された物体検出器は通常、自身の知識に関する不確実性を確実に評価することができず、その確率的予測の質は通常、低い。これらはしばしばその後の意思決定に用いられるため、このような不正確な確率的予測は避けなければならない。本研究では、マルチクラス設定において、異なる事前学習されたオブジェクト検出アーキテクチャの不確実性校正特性を調査する。我々は、公平、不偏、かつ再現可能な評価を保証するフレームワークを提案し、分布の変化(例えば、分布のシフトや分布外のデータへの適用)下での較正を評価する詳細な分析を行う。さらに、異なる検出器パラダイム、後処理工程、適切な測定基準の選択の影響を調査することで、不十分な検出器較正がなぜ生じるかについての新しい洞察を得ることができる。これらの知見に基づき、検出器の最終層を微調整するだけで、検出器の較正を改善することが可能である。
要約(オリジナル)
In the field of deep learning based computer vision, the development of deep object detection has led to unique paradigms (e.g., two-stage or set-based) and architectures (e.g., Faster-RCNN or DETR) which enable outstanding performance on challenging benchmark datasets. Despite this, the trained object detectors typically do not reliably assess uncertainty regarding their own knowledge, and the quality of their probabilistic predictions is usually poor. As these are often used to make subsequent decisions, such inaccurate probabilistic predictions must be avoided. In this work, we investigate the uncertainty calibration properties of different pretrained object detection architectures in a multi-class setting. We propose a framework to ensure a fair, unbiased, and repeatable evaluation and conduct detailed analyses assessing the calibration under distributional changes (e.g., distributional shift and application to out-of-distribution data). Furthermore, by investigating the influence of different detector paradigms, post-processing steps, and suitable choices of metrics, we deliver novel insights into why poor detector calibration emerges. Based on these insights, we are able to improve the calibration of a detector by simply finetuning its last layer.
arxiv情報
著者 | Denis Huseljic,Marek Herde,Mehmet Muejde,Bernhard Sick |
発行日 | 2022-10-06 14:06:36+00:00 |
arxivサイト | arxiv_id(pdf) |