READ: Aggregating Reconstruction Error into Out-of-distribution Detection

要約

分布外(OOD)サンプルを検出することは、分類器を実世界に安全に展開するために非常に重要である。しかし、ディープニューラルネットワークは、異常なデータに対して過信することが知られている。既存の作品は、in-distribution (ID) とOODの分類器から不整合をマイニングすることでスコア関数を直接設計している。本論文では、IDデータで学習したオートエンコーダーはIDだけでなくOODも再構成できないという仮定に基づき、この不整合をさらに再構成誤差で補完する。そこで、分類器とオートエンコーダの矛盾を統一するために、READ (Reconstruction Error Aggregated Detector) という新しい手法を提案する。具体的には、生画素の再構成誤差を分類器の潜在的な空間に変換する。変換された再構成誤差は、意味的なギャップを埋め、元の検出性能を継承することを示す。さらに、OODデータのきめ細かい特徴付けにより、オートエンコーダの過信問題を緩和する調整戦略を提案する。事前学習と再学習の2つのシナリオにおいて、我々はそれぞれ、事前学習した分類器のみに基づくREAD-MD (Mahalanobis Distance) と分類器を再学習するREAD-ED (Euclidean Distance) という2種類の手法を提案する。本手法は、ハイパーパラメータの微調整のためのテスト時間OODデータへのアクセスを必要としない。最後に、最新のOOD検出アルゴリズムとの幅広い比較を通じて、提案手法の有効性を示す。CIFAR-10で事前学習したWideResNetにおいて、我々の手法は、従来の最先端手法と比較して、平均FPR@95TPRを最大9.8%削減することができる。

要約(オリジナル)

Detecting out-of-distribution (OOD) samples is crucial to the safe deployment of a classifier in the real world. However, deep neural networks are known to be overconfident for abnormal data. Existing works directly design score function by mining the inconsistency from classifier for in-distribution (ID) and OOD. In this paper, we further complement this inconsistency with reconstruction error, based on the assumption that an autoencoder trained on ID data can not reconstruct OOD as well as ID. We propose a novel method, READ (Reconstruction Error Aggregated Detector), to unify inconsistencies from classifier and autoencoder. Specifically, the reconstruction error of raw pixels is transformed to latent space of classifier. We show that the transformed reconstruction error bridges the semantic gap and inherits detection performance from the original. Moreover, we propose an adjustment strategy to alleviate the overconfidence problem of autoencoder according to a fine-grained characterization of OOD data. Under two scenarios of pre-training and retraining, we respectively present two variants of our method, namely READ-MD (Mahalanobis Distance) only based on pre-trained classifier and READ-ED (Euclidean Distance) which retrains the classifier. Our methods do not require access to test time OOD data for fine-tuning hyperparameters. Finally, we demonstrate the effectiveness of the proposed methods through extensive comparisons with state-of-the-art OOD detection algorithms. On a CIFAR-10 pre-trained WideResNet, our method reduces the average FPR@95TPR by up to 9.8% compared with previous state-of-the-art.

arxiv情報

著者 Wenyu Jiang,Yuxin Ge,Hao Cheng,Mingcai Chen,Shuai Feng,Chongjun Wang
発行日 2023-01-05 06:11:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク