Self-Supervised Training with Autoencoders for Visual Anomaly Detection

要約

ディープ オートエンコーダーは、教師なしの方法で非線形次元削減を学習するための効果的なツールを提供します。
最近では、視覚領域での異常検出のタスクに使用されています。
異常のない例を使用して再構成エラーを最適化すると、対応するネットワークはアプリケーション段階で異常な領域を正確に再構成できないはずである、というのが一般的な考えです。
この目標は通常、ボトルネック層のサイズを縮小するか、アクティベーションにスパース性制約を適用することによって、ネットワークの容量を制御することによって解決されます。
ただし、これらの手法はどちらも、検出が不十分になることが多い異常な信号の再構成を明示的に罰するものではありません。
我々は、訓練中に識別情報の使用を可能にするが、通常の例のデータ多様体に焦点を当てる自己教師あり学習体制を適応させることによって、この問題に取り組みます。
私たちのアプローチによる推論は、入力画像ごとに単一の前方パスを必要とするトレーニングおよび予測中に非常に効率的であることを強調します。
MVTec AD データセットでの実験では、高い検出と位置特定のパフォーマンスが実証されました。
特にテクスチャ サブセットに関して、私たちのアプローチは一貫して最近の異常検出方法を大幅に上回っています。

要約(オリジナル)

Deep autoencoders provide an effective tool for learning non-linear dimensionality reduction in an unsupervised way. Recently, they have been used for the task of anomaly detection in the visual domain. By optimizing for the reconstruction error using anomaly-free examples, the common belief is that a corresponding network should fail to accurately reconstruct anomalous regions in the application phase. This goal is typically addressed by controlling the capacity of the network, either by reducing the size of the bottleneck layer or by enforcing sparsity constraints on the activations. However, neither of these techniques does explicitly penalize reconstruction of anomalous signals often resulting in poor detection. We tackle this problem by adapting a self-supervised learning regime that allows the use of discriminative information during training but focuses on the data manifold of normal examples. We emphasize that inference with our approach is very efficient during training and prediction requiring a single forward pass for each input image. Our experiments on the MVTec AD dataset demonstrate high detection and localization performance. On the texture-subset, in particular, our approach consistently outperforms recent anomaly detection methods by a significant margin.

arxiv情報

著者 Alexander Bauer,Shinichi Nakajima,Klaus-Robert Müller
発行日 2023-09-22 14:57:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク