Do you understand epistemic uncertainty? Think again! Rigorous frequentist epistemic uncertainty estimation in regression

要約

モデルの不確実性を定量化することは、予測の信頼性を理解するために重要ですが、aleatoricと認識論の不確実性を区別することは依然として挑戦的です。
最近の作業を分類から回帰まで拡張して、認識およびaleatoricの不確実性の推定に対する新しい頻繁なアプローチを提供します。
モデルをトレーニングして、初期出力を追加の入力として戻すことにより、条件付き予測を生成します。
この方法により、モデルの以前の回答を条件付けたときに予測応答がどのように変化するかを観察することにより、モデルの不確実性の厳密な測定が可能になります。
頻繁な方法で回帰の認識論的不確実性を分析するための完全な理論的枠組みを提供し、元のアーキテクチャに最小限の変更を加えて、モデルの不確実性を測定するために実際にどのように活用できるかを説明します。

要約(オリジナル)

Quantifying model uncertainty is critical for understanding prediction reliability, yet distinguishing between aleatoric and epistemic uncertainty remains challenging. We extend recent work from classification to regression to provide a novel frequentist approach to epistemic and aleatoric uncertainty estimation. We train models to generate conditional predictions by feeding their initial output back as an additional input. This method allows for a rigorous measurement of model uncertainty by observing how prediction responses change when conditioned on the model’s previous answer. We provide a complete theoretical framework to analyze epistemic uncertainty in regression in a frequentist way, and explain how it can be exploited in practice to gauge a model’s uncertainty, with minimal changes to the original architecture.

arxiv情報

著者 Enrico Foglia,Benjamin Bobbia,Nikita Durasov,Michael Bauerheim,Pascal Fua,Stephane Moreau,Thierry Jardin
発行日 2025-03-17 15:54:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク