Omni-frequency Channel-selection Representations for Unsupervised Anomaly Detection

要約

近年、教師なし異常検知の主流は密度ベースと分類ベースの手法であるが、再構成ベースの手法は再構成能力が低く、性能も低いため、ほとんど言及されていない。しかし、後者は教師なし学習のための余分な学習サンプルを必要としないため、より実用的である。そこで本稿では、この種の手法の改良に焦点を当て、周波数の観点から異常検出タスクを処理するための新しい全周波数チャネル選択再構成(OCR-GAN)ネットワークを提案する。具体的には、入力画像を異なる周波数成分に分離する周波数分離(Frequency Decoupling: FD)モジュールを提案し、正常画像と異常画像の周波数分布に有意な違いが見られることから、再構成処理を並列した全周波数画像再構成の組み合わせとしてモデル化する。複数の周波数間の相関を考慮し、我々はさらに、異なるチャンネルを適応的に選択することにより、異なるエンコーダ間の周波数相互作用を実行するチャンネル選択(CS)モジュールを提案する。例えば、MVTec ADデータセットにおいて、追加学習データなしで、再構成ベースのベースラインを+38.1、現在のSOTA法を+0.3上回る、最新の検出AUC 98.3を達成した。ソースコードはhttps://github.com/zhangzjn/OCR-GAN。

要約(オリジナル)

Density-based and classification-based methods have ruled unsupervised anomaly detection in recent years, while reconstruction-based methods are rarely mentioned for the poor reconstruction ability and low performance. However, the latter requires no costly extra training samples for the unsupervised training that is more practical, so this paper focuses on improving this kind of method and proposes a novel Omni-frequency Channel-selection Reconstruction (OCR-GAN) network to handle anomaly detection task in a perspective of frequency. Concretely, we propose a Frequency Decoupling (FD) module to decouple the input image into different frequency components and model the reconstruction process as a combination of parallel omni-frequency image restorations, as we observe a significant difference in the frequency distribution of normal and abnormal images. Given the correlation among multiple frequencies, we further propose a Channel Selection (CS) module that performs frequency interaction among different encoders by adaptively selecting different channels. Abundant experiments demonstrate the effectiveness and superiority of our approach over different kinds of methods, e.g., achieving a new state-of-the-art 98.3 detection AUC on the MVTec AD dataset without extra training data that markedly surpasses the reconstruction-based baseline by +38.1 and the current SOTA method by +0.3. Source code is available at https://github.com/zhangzjn/OCR-GAN.

arxiv情報

著者 Yufei Liang,Jiangning Zhang,Shiwei Zhao,Runze Wu,Yong Liu,Shuwen Pan
発行日 2023-07-03 09:54:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク