A Unified Model for Multi-class Anomaly Detection

要約

教師なし異常検出の急速な進歩にもかかわらず、既存の方法では、オブジェクトごとに個別のモデルをトレーニングする必要があります。
この作業では、統一されたフレームワークで複数のクラスの異常検出を実現する UniAD を紹介します。
このような困難な設定の下では、一般的な再構成ネットワークは、正常なサンプルと異常なサンプルの両方を十分に回復できる「同一のショートカット」に陥る可能性があり、したがって外れ値を見つけることができません。
この障害に対処するために、3 つの改善を行います。
最初に、全結合層、畳み込み層、アテンション層の定式化を再検討し、ネットワークがショートカットを学習するのを防ぐ上でのクエリ埋め込み (つまり、アテンション層内) の重要な役割を確認します。
したがって、マルチクラス分布をモデル化するのに役立つレイヤー単位のクエリ デコーダーを考え出します。
次に、入力フィーチャから再構成された出力フィーチャへの情報漏えいをさらに回避するために、近隣のマスクされた注意モジュールを採用します。
3 番目に、モデルがノイズの多い入力であっても正しいメッセージを回復するように促す機能ジッタリング戦略を提案します。
MVTec-AD および CIFAR-10 データセットでアルゴリズムを評価し、最先端の代替手段を十分に大きく上回っています。
たとえば、MVTec-AD で 15 カテゴリの統一モデルを学習すると、異常検出 (88.1% から 96.5%) と異常位置特定 (89.5% から 96.8%) の両方のタスクで 2 番目の競合他社を上回りました。
コードは https://github.com/zhiyuanyou/UniAD で入手できます。

要約(オリジナル)

Despite the rapid advance of unsupervised anomaly detection, existing methods require to train separate models for different objects. In this work, we present UniAD that accomplishes anomaly detection for multiple classes with a unified framework. Under such a challenging setting, popular reconstruction networks may fall into an ‘identical shortcut’, where both normal and anomalous samples can be well recovered, and hence fail to spot outliers. To tackle this obstacle, we make three improvements. First, we revisit the formulations of fully-connected layer, convolutional layer, as well as attention layer, and confirm the important role of query embedding (i.e., within attention layer) in preventing the network from learning the shortcut. We therefore come up with a layer-wise query decoder to help model the multi-class distribution. Second, we employ a neighbor masked attention module to further avoid the information leak from the input feature to the reconstructed output feature. Third, we propose a feature jittering strategy that urges the model to recover the correct message even with noisy inputs. We evaluate our algorithm on MVTec-AD and CIFAR-10 datasets, where we surpass the state-of-the-art alternatives by a sufficiently large margin. For example, when learning a unified model for 15 categories in MVTec-AD, we surpass the second competitor on the tasks of both anomaly detection (from 88.1% to 96.5%) and anomaly localization (from 89.5% to 96.8%). Code is available at https://github.com/zhiyuanyou/UniAD.

arxiv情報

著者 Zhiyuan You,Lei Cui,Yujun Shen,Kai Yang,Xin Lu,Yu Zheng,Xinyi Le
発行日 2022-10-25 08:37:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク