BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen Neural Networks

要約

高品質のキャリブレーションされた不確実性の推定は、多くの実際のアプリケーション、特に深層学習ベースのデプロイされたMLシステムにとって非常に重要です。
ベイズの深層学習手法では不確実性の推定が可能ですが、大規模なデータセットを使用してそれらをトレーニングすることは費用のかかるプロセスであり、ベイズ以外の対応するモデルと常に競合するモデルが得られるとは限りません。
さらに、すでにトレーニングおよび展開されている高性能の深層学習モデルの多くは、本質的に非ベイジアンであり、不確実性の推定値を提供しません。
これらの問題に対処するために、凍結モデルのベイズ恒等写像を学習し、不確実性の推定を可能にするBayesCapを提案します。
BayesCapは、元のデータセットのごく一部でトレーニングできるメモリ効率の高い方法であり、(i)モデルのパフォーマンスを妨げることなく、予測のキャリブレーションされた不確実性推定を提供することにより、事前にトレーニングされた非ベイジアンコンピュータービジョンモデルを強化します。
モデルを最初から高価に再トレーニングする必要があります。
提案された方法は、さまざまなアーキテクチャやタスクに依存しません。
画像の超解像、ブレ除去、修復、医用画像の翻訳などの重要なアプリケーションなど、さまざまなアーキテクチャのセットを使用して、さまざまなタスクでこの方法の有効性を示します。
さらに、導出された不確実性の推定値を適用して、自動運転の深度推定などの重要なシナリオで分布外のサンプルを検出します。
コードはhttps://github.com/ExplainableML/BayesCapで入手できます。

要約(オリジナル)

High-quality calibrated uncertainty estimates are crucial for numerous real-world applications, especially for deep learning-based deployed ML systems. While Bayesian deep learning techniques allow uncertainty estimation, training them with large-scale datasets is an expensive process that does not always yield models competitive with non-Bayesian counterparts. Moreover, many of the high-performing deep learning models that are already trained and deployed are non-Bayesian in nature and do not provide uncertainty estimates. To address these issues, we propose BayesCap that learns a Bayesian identity mapping for the frozen model, allowing uncertainty estimation. BayesCap is a memory-efficient method that can be trained on a small fraction of the original dataset, enhancing pretrained non-Bayesian computer vision models by providing calibrated uncertainty estimates for the predictions without (i) hampering the performance of the model and (ii) the need for expensive retraining the model from scratch. The proposed method is agnostic to various architectures and tasks. We show the efficacy of our method on a wide variety of tasks with a diverse set of architectures, including image super-resolution, deblurring, inpainting, and crucial application such as medical image translation. Moreover, we apply the derived uncertainty estimates to detect out-of-distribution samples in critical scenarios like depth estimation in autonomous driving. Code is available at https://github.com/ExplainableML/BayesCap.

arxiv情報

著者 Uddeshya Upadhyay,Shyamgopal Karthik,Yanbei Chen,Massimiliano Mancini,Zeynep Akata
発行日 2022-07-14 12:50:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク