Attention-Guided Perturbation for Unsupervised Image Anomaly Detection

要約

再構築ベースの手法により、最新の教師なし異常検出が大幅に進歩しました。
ただし、ニューラル ネットワークの強力な能力は、異常なサンプルを適切に再構築することで、基礎となる仮定に違反することがよくあります。
この問題を軽減するために、教師なし異常を正確に検出するために、アテンション マスクを使用して摂動ノイズを追加することを学習する、アテンション ガイド付きパーチュエーション ネットワーク (AGPNet) というシンプルかつ効果的な再構築フレームワークを紹介します。
具体的には、単純な再構成ブランチと補助的な注意ベースの摂動ブランチの 2 つのブランチで構成されます。
再構成ブランチは、正常サンプルの再構成を学習する単純な単純な再構成ネットワークですが、補助ブランチは、正常サンプルのノイズ摂動プロセスを簡単なものから難しいものに導くためのアテンション マスクを生成することを目的としています。
そうすることで、トレーニング用にハードでありながらより有益な異常を合成し、再構成ブランチが重要な固有の正常パターンを包括的かつ効率的に学習できるようになると期待しています。
MVTec-AD、VisA、MVTec-3D をカバーする 3 つの一般的なベンチマークで広範な実験が実施され、少数ショット、1 クラス、およびマルチクラスのセットアップを含むさまざまなセットアップの下で、私たちのフレームワークが優れた異常検出パフォーマンスを獲得していることが示されています。

要約(オリジナル)

Reconstruction-based methods have significantly advanced modern unsupervised anomaly detection. However, the strong capacity of neural networks often violates the underlying assumptions by reconstructing abnormal samples well. To alleviate this issue, we present a simple yet effective reconstruction framework named Attention-Guided Pertuation Network (AGPNet), which learns to add perturbation noise with an attention mask, for accurate unsupervised anomaly detection. Specifically, it consists of two branches, \ie, a plain reconstruction branch and an auxiliary attention-based perturbation branch. The reconstruction branch is simply a plain reconstruction network that learns to reconstruct normal samples, while the auxiliary branch aims to produce attention masks to guide the noise perturbation process for normal samples from easy to hard. By doing so, we are expecting to synthesize hard yet more informative anomalies for training, which enable the reconstruction branch to learn important inherent normal patterns both comprehensively and efficiently. Extensive experiments are conducted on three popular benchmarks covering MVTec-AD, VisA, and MVTec-3D, and show that our framework obtains leading anomaly detection performance under various setups including few-shot, one-class, and multi-class setups.

arxiv情報

著者 Tingfeng Huang,Yuxuan Cheng,Jingbo Xia,Rui Yu,Yuxuan Cai,Jinhai Xiang,Xinwei He,Xiang Bai
発行日 2024-08-14 12:12:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク