Looking at the posterior: accuracy and uncertainty of neural-network predictions

要約

ベイジアン推論では、モデル パラメーターとネットワーク出力の事後分布を使用して、ニューラル ネットワークの予測の不確実性を定量化できます。
これらの事後分布を見ることによって、不確実性の原因を偶然的寄与と認識的寄与に分けることができます。
不確実性の定量化の目的の 1 つは、予測の精度について情報を提供することです。
ここでは、予測精度が認識的不確実性と偶然的不確実性の両方に複雑な形で依存しており、周辺化された不確実性分布だけでは理解できないことを示します。
精度が認識的および偶然的な不確実性にどのように関係するかは、モデルのアーキテクチャだけでなく、データセットの特性にも依存します。
アクティブラーニングにおけるこれらの結果の重要性について議論し、一般的な不確実性ベースの手法を上回る新しい取得関数を紹介します。
結果に到達するために、完全に接続された畳み込みおよび注意ベースのニューラル ネットワークのディープ アンサンブルを使用して事後分布を近似しました。

要約(オリジナル)

Bayesian inference can quantify uncertainty in the predictions of neural networks using posterior distributions for model parameters and network output. By looking at these posterior distributions, one can separate the origin of uncertainty into aleatoric and epistemic contributions. One goal of uncertainty quantification is to inform on prediction accuracy. Here we show that prediction accuracy depends on both epistemic and aleatoric uncertainty in an intricate fashion that cannot be understood in terms of marginalized uncertainty distributions alone. How the accuracy relates to epistemic and aleatoric uncertainties depends not only on the model architecture, but also on the properties of the dataset. We discuss the significance of these results for active learning and introduce a novel acquisition function that outperforms common uncertainty-based methods. To arrive at our results, we approximated the posteriors using deep ensembles, for fully-connected, convolutional and attention-based neural networks.

arxiv情報

著者 H. Linander,O. Balabanov,H. Yang,B. Mehlig
発行日 2023-11-22 12:16:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク