A Unified Model for Multi-class Anomaly Detection

要約

教師なし異常検知は急速に発展しているが、既存の手法では、対象ごとに別々のモデルを学習する必要がある。本研究では、複数のクラスに対する異常検知を統一的なフレームワークで実現するUniADを発表する。このような困難な環境において、一般的な再構成ネットワークは、正常なサンプルと異常なサンプルの両方がうまく復元できる「同一の近道」に陥る可能性があり、そのため異常値を発見できないことがある。この障害に対処するため、我々は3つの改善を行う。まず、全結合層、畳み込み層、注意層の定式化を見直し、クエリの埋め込み(つまり注意層内)がネットワークの近道学習防止に重要な役割を果たすことを確認する。そこで我々は、多クラス分布のモデル化を支援するために、レイヤー単位のクエリデコーダを考え出した。第二に、入力特徴から再構成された出力特徴への情報漏れをさらに回避するために、近傍マスク注意モジュールを採用する。第三に、ノイズの多い入力に対しても正しいメッセージを復元するようにモデルを促す特徴ジッタリング戦略を提案する。我々のアルゴリズムをMVTec-ADとCIFAR-10データセットで評価したところ、十分に大きなマージンをもって最先端技術を凌駕することができた。例えば、MVTec-ADにおいて15カテゴリに対応する統一モデルを学習した場合、異常検知(88.1%から96.5%)、異常局在化(89.5%から96.8%)の両方のタスクで競合2社を上回る結果を得ることができました。コードは一般に公開される予定です。

要約(オリジナル)

Despite the rapid advance of unsupervised anomaly detection, existing methods require to train separate models for different objects. In this work, we present UniAD that accomplishes anomaly detection for multiple classes with a unified framework. Under such a challenging setting, popular reconstruction networks may fall into an ‘identical shortcut’, where both normal and anomalous samples can be well recovered, and hence fail to spot outliers. To tackle this obstacle, we make three improvements. First, we revisit the formulations of fully-connected layer, convolutional layer, as well as attention layer, and confirm the important role of query embedding (i.e., within attention layer) in preventing the network from learning the shortcut. We therefore come up with a layer-wise query decoder to help model the multi-class distribution. Second, we employ a neighbor masked attention module to further avoid the information leak from the input feature to the reconstructed output feature. Third, we propose a feature jittering strategy that urges the model to recover the correct message even with noisy inputs. We evaluate our algorithm on MVTec-AD and CIFAR-10 datasets, where we surpass the state-of-the-art alternatives by a sufficiently large margin. For example, when learning a unified model for 15 categories in MVTec-AD, we surpass the second competitor on the tasks of both anomaly detection (from 88.1% to 96.5%) and anomaly localization (from 89.5% to 96.8%). Code will be made publicly available.

arxiv情報

著者 Zhiyuan You,Lei Cui,Yujun Shen,Kai Yang,Xin Lu,Yu Zheng,Xinyi Le
発行日 2022-06-08 06:05:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク