Y-GAN: Learning Dual Data Representations for Efficient Anomaly Detection

要約

Y-GANと呼ばれる、異常検出のための新しい再構成ベースのモデルを提案します。
モデルは Y 字型の自動エンコーダーで構成され、2 つの別々の潜在空間で画像を表します。
1 つ目は意味のあるイメージ セマンティクス、(通常の) トレーニング データを表すためのキーをキャプチャし、2 つ目は低レベルの残差イメージ特性をエンコードします。
二重表現が相互に排他的な情報をエンコードすることを保証するために、潜在的な (プロキシ) 分類子を中心に、もつれを解く手順が設計されています。
さらに、潜在空間間の情報漏洩を防ぐために、新しい整合性損失が提案されています。
モデルは、通常のトレーニング データのみを使用して、1 クラスの学習設定でトレーニングされます。
意味的に関連する情報と残余情報が分離されているため、Y-GAN は、さまざまな異常検出タスク全体で効率的な異常検出を可能にする有益なデータ表現を導き出すことができます。
このモデルは、MNIST、FMNIST、CIFAR10、および PlantVillage の 4 つの一般的なデータセットを使用して、いくつかの最近の異常検出モデルを使用した包括的な実験で評価されます。

要約(オリジナル)

We propose a novel reconstruction-based model for anomaly detection, called Y-GAN. The model consists of a Y-shaped auto-encoder and represents images in two separate latent spaces. The first captures meaningful image semantics, key for representing (normal) training data, whereas the second encodes low-level residual image characteristics. To ensure the dual representations encode mutually exclusive information, a disentanglement procedure is designed around a latent (proxy) classifier. Additionally, a novel consistency loss is proposed to prevent information leakage between the latent spaces. The model is trained in a one-class learning setting using normal training data only. Due to the separation of semantically-relevant and residual information, Y-GAN is able to derive informative data representations that allow for efficient anomaly detection across a diverse set of anomaly detection tasks. The model is evaluated in comprehensive experiments with several recent anomaly detection models using four popular datasets, i.e., MNIST, FMNIST and CIFAR10, and PlantVillage.

arxiv情報

著者 Marija Ivanovska,Vitomir Štruc
発行日 2022-11-11 12:44:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク