要約
ディープニューラルネットワークは未知のデータに対して脆弱であることが知られている: 彼らは分配外のサンプルに対して誤って高い信頼度スコアを割り当ててしまう可能性がある。最近の研究では、表現学習手法や特定のメトリックを用いてこの問題を解決しようとしている。本論文では、新しい観察に基づき、Test Time Augmentation Anomaly Detection (TTA-AD) というシンプルで効果的なポストホック・アノマリー検出アルゴリズムを提案する。具体的には、分布内データは、分布内と分布外のサンプルを分離した分布外データよりも、学習済みネットワーク上でオリジナルと拡張バージョンに対してより一貫した予測を楽しむことができることを観察する。様々な高解像度画像ベンチマークデータセットを用いた実験により、TTA-ADはデータセット対データセットの異常検出設定において、既存の分類器ベースのアルゴリズムと比較して60%~90%の実行時間短縮で同等以上の検出性能を達成することが実証された。TTA-ADの鍵は、従来の研究で部分的に無視されてきた、拡張された特徴量の間の残りのクラスにあることを実証的に検証しています。さらに、RUNSを代理として用いて、本アルゴリズムの理論的な解析を行う。
要約(オリジナル)
Deep neural networks are known to be vulnerable to unseen data: they may wrongly assign high confidence stcores to out-distribuion samples. Recent works try to solve the problem using representation learning methods and specific metrics. In this paper, we propose a simple, yet effective post-hoc anomaly detection algorithm named Test Time Augmentation Anomaly Detection (TTA-AD), inspired by a novel observation. Specifically, we observe that in-distribution data enjoy more consistent predictions for its original and augmented versions on a trained network than out-distribution data, which separates in-distribution and out-distribution samples. Experiments on various high-resolution image benchmark datasets demonstrate that TTA-AD achieves comparable or better detection performance under dataset-vs-dataset anomaly detection settings with a 60%~90\% running time reduction of existing classifier-based algorithms. We provide empirical verification that the key to TTA-AD lies in the remaining classes between augmented features, which has long been partially ignored by previous works. Additionally, we use RUNS as a surrogate to analyze our algorithm theoretically.
arxiv情報
著者 | Haowei He,Jiaye Teng,Yang Yuan |
発行日 | 2022-06-06 04:27:06+00:00 |
arxivサイト | arxiv_id(pdf) |