Anytime-Valid Confidence Sequences for Consistent Uncertainty Estimation in Early-Exit Neural Networks

要約

早期終了ニューラル ネットワーク (EENN) は、フォワード パスの複数の段階で予測を生成することにより、適応推論を容易にします。
安全性が重要なアプリケーションでは、これらの予測は信頼できる不確実性の推定値で補完された場合にのみ意味を持ちます。
しかし、シーケンシャルな構造のため、EENN の不確実性推定も一貫している必要があります。つまり、1 つの出口でありそうもないとみなされているラベルが、その後の出口の信頼区間/セット内に再び現れるべきではありません。
ベイジアン法や等角予測などの標準的な不確実性定量化手法では、出口間で不一致が生じる可能性があることを示します。
私たちは、EENN の出口に常時有効信頼シーケンス (AVCS) を適用することで、この問題に対処します。
設計により、AVCS は出口間で一貫性を維持します。
私たちは、AVCS を EENN に適用する理論的および実践的な課題を検討し、回帰タスクと分類タスクの両方に対するアプローチを経験的に検証します。

要約(オリジナル)

Early-exit neural networks (EENNs) facilitate adaptive inference by producing predictions at multiple stages of the forward pass. In safety-critical applications, these predictions are only meaningful when complemented with reliable uncertainty estimates. Yet, due to their sequential structure, an EENN’s uncertainty estimates should also be consistent: labels that are deemed improbable at one exit should not reappear within the confidence interval / set of later exits. We show that standard uncertainty quantification techniques, like Bayesian methods or conformal prediction, can lead to inconsistency across exits. We address this problem by applying anytime-valid confidence sequences (AVCSs) to the exits of EENNs. By design, AVCSs maintain consistency across exits. We examine the theoretical and practical challenges of applying AVCSs to EENNs and empirically validate our approach on both regression and classification tasks.

arxiv情報

著者 Metod Jazbec,Patrick Forré,Stephan Mandt,Dan Zhang,Eric Nalisnick
発行日 2023-11-10 08:38:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク