要約
現在、コンピュータービジョンのディープニューラルネットワークに大きく依存している自動運転システムの保護に多大な労力が費やされています。
私たちは、スパース化誤差曲線下面積 (AUSE) メトリクスに特に焦点を当てて、さまざまなニューラル ネットワークのキャリブレーション測定の結合を調査します。
予測キャリブレーション誤差 (ECE) を使用して最適なキャリブレーションを決定する際のよく知られた不一致について詳しく説明し、AUSE、不確実性キャリブレーション スコア (UCS)、および不確実性キャリブレーション エラー (UCE) についても同様の問題を示します。
現在の方法論には自由度が残されており、安全性が重要な機能の認証のための独自のモデル校正が妨げられていると結論付けています。
さらに、残留不確実性の間接的な尺度として AUSE を提案します。残留不確実性は、固定ネットワーク アーキテクチャでは軽減できず、基礎となるデータ生成プロセスの確率性 (偶然性寄与) と仮説空間の制限 (認識論的寄与) によって決まります。
貢献)。
要約(オリジナル)
A lot of effort is currently invested in safeguarding autonomous driving systems, which heavily rely on deep neural networks for computer vision. We investigate the coupling of different neural network calibration measures with a special focus on the Area Under the Sparsification Error curve (AUSE) metric. We elaborate on the well-known inconsistency in determining optimal calibration using the Expected Calibration Error (ECE) and we demonstrate similar issues for the AUSE, the Uncertainty Calibration Score (UCS), as well as the Uncertainty Calibration Error (UCE). We conclude that the current methodologies leave a degree of freedom, which prevents a unique model calibration for the homologation of safety-critical functionalities. Furthermore, we propose the AUSE as an indirect measure for the residual uncertainty, which is irreducible for a fixed network architecture and is driven by the stochasticity in the underlying data generation process (aleatoric contribution) as well as the limitation in the hypothesis space (epistemic contribution).
arxiv情報
著者 | Dominik Werner Wolf,Prasannavenkatesh Balaji,Alexander Braun,Markus Ulrich |
発行日 | 2024-06-04 15:21:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google