Anomaly Detection via Multi-Scale Contrasted Memory

要約

詳細な異常検出 (AD) は、1 つのクラスおよび不均衡な設定に対して堅牢で効率的な分類器を提供することを目的としています。
ただし、現在の AD モデルは依然としてエッジケースの正常なサンプルで苦労しており、さまざまなスケールの異常で高いパフォーマンスを維持できないことがよくあります。
さらに、現在、ワンクラス学習とアンバランス学習の両方を効率的にカバーする統一されたフレームワークは存在しません。
これらの制限に照らして、異常偏差スコアを計算するためにマルチスケールの正常なプロトタイプのトレーニング中に記憶する、新しい 2 段階の異常検出器を導入します。
まず、新しい記憶増強対照学習を使用して、複数のスケールで表現と記憶モジュールを同時に学習します。
次に、プロトタイプと観測の間の空間偏差マップで異常距離検出器をトレーニングします。
私たちのモデルは、CIFAR-10 で最大 35\% のエラー相対改善により、広範囲のオブジェクト、スタイル、およびローカル異常で最先端のパフォーマンスを大幅に改善します。
ワンクラス、アンバランスなセッティングでも高いパフォーマンスを維持する初のモデルでもあります。

要約(オリジナル)

Deep anomaly detection (AD) aims to provide robust and efficient classifiers for one-class and unbalanced settings. However current AD models still struggle on edge-case normal samples and are often unable to keep high performance over different scales of anomalies. Moreover, there currently does not exist a unified framework efficiently covering both one-class and unbalanced learnings. In the light of these limitations, we introduce a new two-stage anomaly detector which memorizes during training multi-scale normal prototypes to compute an anomaly deviation score. First, we simultaneously learn representations and memory modules on multiple scales using a novel memory-augmented contrastive learning. Then, we train an anomaly distance detector on the spatial deviation maps between prototypes and observations. Our model highly improves the state-of-the-art performance on a wide range of object, style and local anomalies with up to 35\% error relative improvement on CIFAR-10. It is also the first model to keep high performance across the one-class and unbalanced settings.

arxiv情報

著者 Loic Jezequel,Ngoc-Son Vu,Jean Beaudet,Aymeric Histace
発行日 2022-11-16 16:58:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク