READ: Aggregating Reconstruction Error into Out-of-distribution Detection

要約

分布外(OOD)サンプルを検出することは、現実の世界で分類器を安全に展開するために重要です。
ただし、ディープニューラルネットワークは異常なデータに対して自信過剰であることが知られています。
既存の作品は、分布内(ID)とOODの分類器からの不整合をマイニングすることにより、スコア関数を直接設計します。
この論文では、IDデータでトレーニングされたオートエンコーダがIDだけでなくOODも再構築できないという仮定に基づいて、この不整合を再構築エラーでさらに補完します。
分類器とオートエンコーダからの不整合を統合するために、新しい方法であるREAD(Reconstruction Error Aggregated Detector)を提案します。
具体的には、生のピクセルの再構成誤差が分類器の潜在空間に変換されます。
変換された再構成エラーがセマンティックギャップを埋め、元のエラーから検出パフォーマンスを継承することを示します。
さらに、OODデータの詳細な特性評価に従って、オートエンコーダの過信問題を軽減するための調整戦略を提案します。
事前トレーニングと再トレーニングの2つのシナリオの下で、それぞれ、事前トレーニングされた分類器のみに基づくREAD-MD(マハラノビス距離)と分類器を再トレーニングするREAD-ED(ユークリッド距離)という2つの方法のバリエーションを示します。
私たちの方法では、ハイパーパラメータを微調整するためにテスト時間のOODデータにアクセスする必要はありません。
最後に、最先端のOOD検出アルゴリズムとの広範な比較を通じて、提案された方法の有効性を示します。
CIFAR-10で事前トレーニングされたWideResNetでは、私たちの方法により、平均FPR @ 95TPRが以前の最先端技術と比較して最大9.8%削減されます。

要約(オリジナル)

Detecting out-of-distribution (OOD) samples is crucial to the safe deployment of a classifier in the real world. However, deep neural networks are known to be overconfident for abnormal data. Existing works directly design score function by mining the inconsistency from classifier for in-distribution (ID) and OOD. In this paper, we further complement this inconsistency with reconstruction error, based on the assumption that an autoencoder trained on ID data can not reconstruct OOD as well as ID. We propose a novel method, READ (Reconstruction Error Aggregated Detector), to unify inconsistencies from classifier and autoencoder. Specifically, the reconstruction error of raw pixels is transformed to latent space of classifier. We show that the transformed reconstruction error bridges the semantic gap and inherits detection performance from the original. Moreover, we propose an adjustment strategy to alleviate the overconfidence problem of autoencoder according to a fine-grained characterization of OOD data. Under two scenarios of pre-training and retraining, we respectively present two variants of our method, namely READ-MD (Mahalanobis Distance) only based on pre-trained classifier and READ-ED (Euclidean Distance) which retrains the classifier. Our methods do not require access to test time OOD data for fine-tuning hyperparameters. Finally, we demonstrate the effectiveness of the proposed methods through extensive comparisons with state-of-the-art OOD detection algorithms. On a CIFAR-10 pre-trained WideResNet, our method reduces the average FPR@95TPR by up to 9.8% compared with previous state-of-the-art.

arxiv情報

著者 Wenyu Jiang,Hao Cheng,Mingcai Chen,Shuai Feng,Yuxin Ge,Chongjun Wang
発行日 2022-06-15 11:30:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク