Quantification of Uncertainty with Adversarial Models

要約

不確実性を定量化することは、現実世界のアプリケーションで実用的な予測を行うために重要です。
予測不確実性の定量化の重要な部分は、認識論的不確実性の推定です。認識不確実性は、発散関数と事後関数の間の積の積分として定義されます。
ディープ アンサンブルや MC ドロップアウトなどの現在の方法は、モデルをサンプリングするときに主に事後を考慮するため、認識論的不確実性を推定する際のパフォーマンスが不十分です。
認識論的な不確実性をより適切に推定するために、敵対的モデルによる不確実性の定量化 (QUAM) を提案します。
QUAM は、事後積だけでなく、積分の積全体が大きい領域を識別します。
その結果、QUAM は以前の方法と比較して認識論的不確実性の近似誤差が低くなります。
積が大きいモデルは、敵対的モデルに対応します (敵対的な例ではありません!)。
敵対的モデルは、その予測と参照モデルの予測との間に高い事後乖離と高い乖離の両方を持ちます。
私たちの実験では、QUAM が深層学習モデルの認識論的不確実性の捕捉に優れており、ビジョン領域の困難なタスクでは以前の方法よりも優れていることがわかりました。

要約(オリジナル)

Quantifying uncertainty is important for actionable predictions in real-world applications. A crucial part of predictive uncertainty quantification is the estimation of epistemic uncertainty, which is defined as an integral of the product between a divergence function and the posterior. Current methods such as Deep Ensembles or MC dropout underperform at estimating the epistemic uncertainty, since they primarily consider the posterior when sampling models. We suggest Quantification of Uncertainty with Adversarial Models (QUAM) to better estimate the epistemic uncertainty. QUAM identifies regions where the whole product under the integral is large, not just the posterior. Consequently, QUAM has lower approximation error of the epistemic uncertainty compared to previous methods. Models for which the product is large correspond to adversarial models (not adversarial examples!). Adversarial models have both a high posterior as well as a high divergence between their predictions and that of a reference model. Our experiments show that QUAM excels in capturing epistemic uncertainty for deep learning models and outperforms previous methods on challenging tasks in the vision domain.

arxiv情報

著者 Kajetan Schweighofer,Lukas Aichberger,Mykyta Ielanskyi,Günter Klambauer,Sepp Hochreiter
発行日 2023-10-24 16:37:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク