Exposing Outlier Exposure: What Can Be Learned From Few, One, and Zero Outlier Images

要約

通常のデータとは異なって見えるすべてのものを特徴付けるのは難しいため、異常検出 (AD) は従来、通常のサンプルのみを使用する教師なし問題として扱われてきました。
しかし、異常性を表現するランダム画像の膨大なコーパスを利用することで、教師なし画像 AD を大幅に改善できることが最近判明しました。
Outlier Exposure として知られる手法。
この論文では、特殊なAD学習方法は最先端のパフォーマンスには不要であると思われ、さらに、ADの分野で一般的な仮定と矛盾する、Outlier Exposureデータの小さなコレクションで強力なパフォーマンスを達成できることを示しています.
通常のサンプルと比較的少数のランダムな自然画像を識別するように訓練された標準的な分類子と半教師ありの 1 クラス メソッドは、確立された ImageNet の AD ベンチマークで現在の最先端技術よりも優れていることがわかりました。
さらなる実験により、適切に選択された外れ値サンプルが 1 つでも、このベンチマークでまともなパフォーマンスを達成するのに十分であることが明らかになりました (79.3% AUC)。
この現象を調査したところ、1 クラス メソッドはトレーニングの外れ値の選択に対してより堅牢であることがわかりました。
さらに、結果が保持されるシナリオを説明する実験も含まれています。
最後に、ゼロショット設定で CIFAR-10 および ImageNet で最先端の AD 結果を達成する最近の基礎モデルである CLIP によって学習された表現を使用する場合、トレーニング サンプルは必要ありません。

要約(オリジナル)

Due to the intractability of characterizing everything that looks unlike the normal data, anomaly detection (AD) is traditionally treated as an unsupervised problem utilizing only normal samples. However, it has recently been found that unsupervised image AD can be drastically improved through the utilization of huge corpora of random images to represent anomalousness; a technique which is known as Outlier Exposure. In this paper we show that specialized AD learning methods seem unnecessary for state-of-the-art performance, and furthermore one can achieve strong performance with just a small collection of Outlier Exposure data, contradicting common assumptions in the field of AD. We find that standard classifiers and semi-supervised one-class methods trained to discern between normal samples and relatively few random natural images are able to outperform the current state of the art on an established AD benchmark with ImageNet. Further experiments reveal that even one well-chosen outlier sample is sufficient to achieve decent performance on this benchmark (79.3% AUC). We investigate this phenomenon and find that one-class methods are more robust to the choice of training outliers, indicating that there are scenarios where these are still more useful than standard classifiers. Additionally, we include experiments that delineate the scenarios where our results hold. Lastly, no training samples are necessary when one uses the representations learned by CLIP, a recent foundation model, which achieves state-of-the-art AD results on CIFAR-10 and ImageNet in a zero-shot setting.

arxiv情報

著者 Philipp Liznerski,Lukas Ruff,Robert A. Vandermeulen,Billy Joe Franks,Klaus-Robert Müller,Marius Kloft
発行日 2022-11-14 15:27:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク