Preventing Arbitrarily High Confidence on Far-Away Data in Point-Estimated Discriminative Neural Networks

要約

識別的にトレーニングされた決定論的なニューラル ネットワークは、分類問題に対する事実上の選択肢です。
ただし、ドメイン内のテスト セットで最先端の結果を達成したとしても、配布外 (OOD) データについては過信する傾向があります。
たとえば、ニューラル ネットワーク アーキテクチャの人気クラスである ReLU ネットワークは、テスト データがトレーニング セットから遠く離れている場合、たとえ OOD データでトレーニングされた場合でも、ほぼ常に信頼性の高い予測をもたらすことが示されています。
私たちは、追加のクラスのロジットに対応する項をニューラル ネットワークの出力に追加することで、この問題を解決しました。トレーニング データから遠ざかるにつれて、元のクラスのロジットを支配するように設計されています。この技術により、恣意的なものを防ぐことができることが証明されています。
シンプルな識別点推定トレーニングを維持しながら、遠く離れたテスト データに対する高い信頼性を実現します。
さまざまなベンチマークでの評価では、遠く離れた OOD データと現実的な OOD データの両方で競合ベースラインに対して優れたパフォーマンスを示しています。

要約(オリジナル)

Discriminatively trained, deterministic neural networks are the de facto choice for classification problems. However, even though they achieve state-of-the-art results on in-domain test sets, they tend to be overconfident on out-of-distribution (OOD) data. For instance, ReLU networks – a popular class of neural network architectures – have been shown to almost always yield high confidence predictions when the test data are far away from the training set, even when they are trained with OOD data. We overcome this problem by adding a term to the output of the neural network that corresponds to the logit of an extra class, that we design to dominate the logits of the original classes as we move away from the training data.This technique provably prevents arbitrarily high confidence on far-away test data while maintaining a simple discriminative point-estimate training. Evaluation on various benchmarks demonstrates strong performance against competitive baselines on both far-away and realistic OOD data.

arxiv情報

著者 Ahmad Rashid,Serena Hacker,Guojun Zhang,Agustinus Kristiadi,Pascal Poupart
発行日 2024-03-27 16:44:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク