A Theoretical and Practical Framework for Evaluating Uncertainty Calibration in Object Detection

要約

ディープニューラルネットワークの普及により、機械学習システムは実世界の様々なアプリケーションにおいてますます存在感を増している。その結果、これらの領域では信頼性の高いモデルに対する要求が高まっており、ディープラーニングの将来を考える上で、不確実性の較正の問題は極めて重要となっている。これは特に、自律走行やロボット工学のようなセーフティクリティカルなアプリケーションに一般的に存在する物体検出システムを考慮する場合に当てはまる。このため、本研究では、不確実性校正の文脈で物体検出システムを評価するための、新しい理論的かつ実用的な枠組みを提示する。提案する不確かさ校正メトリクスの頑健性を、一連の代表的な実験を通して示す。提案する不確かさ較正メトリクスのコードはhttps://github.com/pedrormconde/Uncertainty_Calibration_Object_Detection。

要約(オリジナル)

The proliferation of Deep Neural Networks has resulted in machine learning systems becoming increasingly more present in various real-world applications. Consequently, there is a growing demand for highly reliable models in these domains, making the problem of uncertainty calibration pivotal, when considering the future of deep learning. This is especially true when considering object detection systems, that are commonly present in safety-critical application such as autonomous driving and robotics. For this reason, this work presents a novel theoretical and practical framework to evaluate object detection systems in the context of uncertainty calibration. The robustness of the proposed uncertainty calibration metrics is shown through a series of representative experiments. Code for the proposed uncertainty calibration metrics at: https://github.com/pedrormconde/Uncertainty_Calibration_Object_Detection.

arxiv情報

著者 Pedro Conde,Rui L. Lopes,Cristiano Premebida
発行日 2023-09-01 14:02:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク