RSC-VAE: Recoding Semantic Consistency Based VAE for One-Class Novelty Detection

要約

タイトル: RSC-VAE: Variational Auto-encoderを用いた意味的整合性に基づく単一クラスの新規性検出

要約:
– 画像レベルの情報に焦点を当てた生成モデルを使った単一クラスの新規性検出手法に興味がある。
– このモデルは、VAEの潜在空間をさらに活用し、通常/異常/不明な意味領域に分割することで、意味的曖昧性を減らす。
– RSC-VAEは、VAEとリコーディングメカニズムを組み合わせて、2つのエンコーディングの意味的整合性を制約する新しいVAEアーキテクチャを提案する。
– 3つのトレーニングモードを導入し、正常なサンプルの偽陽性問題を軽減するOne-Class Training Mode、異常標本の偽陰性問題を軽減するDistributionally-Shifted Training Mode、および2番目のモードを強化するために少数の異常サンプルを導入するように設計されたExtremely-Imbalanced Training Modeがある。
– 多くのデータセットで実験的結果を得られ、特にVAEを含む様々なベースラインに対して、状態-of-the-art性能を持つことが示された。

要約(オリジナル)

In recent years, there is an increasing interests in reconstruction based generative models for image One-Class Novelty Detection, most of which only focus on image-level information. While in this paper, we further exploit the latent space of Variational Auto-encoder (VAE), a typical reconstruction based model, and we innovatively divide it into three regions: Normal/Anomalous/Unknown-semantic-region. Based on this hypothesis, we propose a new VAE architecture, Recoding Semantic Consistency Based VAE (RSC-VAE), combining VAE with recoding mechanism and constraining the semantic consistency of two encodings. We come up with three training modes of RSC-VAE: 1. One-Class Training Mode, alleviating False Positive problem of normal samples; 2. Distributionally-Shifted Training Mode, alleviating False Negative problem of anomalous samples; 3. Extremely-Imbalanced Training Mode, introducing a small number of anomalous samples for training to enhance the second mode. The experimental results on multiple datasets demonstrate that our mechanism achieves state-of-the-art performance in various baselines including VAE.

arxiv情報

著者 Ge Zhang,Wangzhe Du
発行日 2023-05-07 13:36:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク