Positive Difference Distribution for Image Outlier Detection using Normalizing Flows and Contrastive Data

要約

タイトル:正規化フローと対照データを用いた画像の異常検出におけるポジティブ差分分布

要約:
– 機械学習において、トレーニングデータから外れるテストデータを検出することは重要な問題である。
– 一般的な対数尤度学習による正規化フローなどの生成モデルによって学習した尤度は、外れ値のスコアとしては効果が低い。
– そこで、無ラベルのオーキュラリデータセットと確率的な異常検出スコアを使用して外れ値を検出することを提案する。
– オーキュラリデータセットに対して自己教師ありの特徴抽出器を訓練し、抽出された特徴量に正規化フローを訓練することで、内部分布データに対する尤度を最大化し、対照データセットに対する尤度を最小化する。
– これによって、正規化された内部分布と対照分布のポジティブ差分を学習することに相当する。
– 実験はベンチマークデータセットで行い、尤度、尤度比、および最先端の異常検出手法と比較した。

要約(オリジナル)

Detecting test data deviating from training data is a central problem for safe and robust machine learning. Likelihoods learned by a generative model, e.g., a normalizing flow via standard log-likelihood training, perform poorly as an outlier score. We propose to use an unlabelled auxiliary dataset and a probabilistic outlier score for outlier detection. We use a self-supervised feature extractor trained on the auxiliary dataset and train a normalizing flow on the extracted features by maximizing the likelihood on in-distribution data and minimizing the likelihood on the contrastive dataset. We show that this is equivalent to learning the normalized positive difference between the in-distribution and the contrastive feature density. We conduct experiments on benchmark datasets and compare to the likelihood, the likelihood ratio and state-of-the-art anomaly detection methods.

arxiv情報

著者 Robert Schmier,Ullrich Köthe,Christoph-Nikolas Straehle
発行日 2023-04-26 07:46:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク