One step closer to unbiased aleatoric uncertainty estimation

要約

ニューラル ネットワークはさまざまなアプリケーションで強力なツールであり、信頼性の高い意思決定にはその不確実性を定量化することが重要です。
深層学習の分野では、不確実性は通常、偶発的 (データ) と認識的 (モデル) の不確実性に分類されます。
この論文では、既存の一般的な分散減衰法が偶然の不確実性を非常に過大評価していることを指摘します。
この問題に対処するために、観測データのノイズを積極的に除去する新しい推定方法を提案します。
幅広い実験を実施することにより、提案したアプローチが標準的な方法よりも実際のデータの不確実性にはるかに近い近似を提供することを実証します。

要約(オリジナル)

Neural networks are powerful tools in various applications, and quantifying their uncertainty is crucial for reliable decision-making. In the deep learning field, the uncertainties are usually categorized into aleatoric (data) and epistemic (model) uncertainty. In this paper, we point out that the existing popular variance attenuation method highly overestimates aleatoric uncertainty. To address this issue, we propose a new estimation method by actively de-noising the observed data. By conducting a broad range of experiments, we demonstrate that our proposed approach provides a much closer approximation to the actual data uncertainty than the standard method.

arxiv情報

著者 Wang Zhang,Ziwen Ma,Subhro Das,Tsui-Wei Weng,Alexandre Megretski,Luca Daniel,Lam M. Nguyen
発行日 2023-12-20 16:02:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク