A Discrepancy Aware Framework for Robust Anomaly Detection

要約

欠陥検出は人工知能における重要な研究分野です。
最近、合成データベースの自己教師あり学習が、このタスクに関して大きな可能性を示しています。
多くの高度な合成戦略が存在しますが、さまざまな戦略に直面したときのモデルの堅牢性を調査するための研究はほとんど行われていません。
この論文では、この問題に焦点を当て、既存の手法がこの問題に非常に敏感であることを発見しました。
この問題を軽減するために、Discrepancy Aware Framework (DAF) を紹介します。これは、さまざまな異常検出ベンチマークにわたって、シンプルで安価な戦略で一貫して堅牢なパフォーマンスを実証します。
既存の自己教師あり手法の合成データに対する感度の高さは、デコード中の合成データの視覚的外観に大きく依存しているためであると仮説を立てます。
対照的に、私たちの方法は、外観に依存しない手がかりを利用してデコーダが欠陥を識別するようにガイドし、それによって合成外観への依存を軽減します。
この目的を達成するために、既存の知識蒸留手法にヒントを得て、合成された外れ値に基づいてトレーニングされた教師と生徒のネットワークを採用し、手がかりとしての不一致マップを計算します。
2 つの困難なデータセットに対する広範な実験により、私たちの方法の堅牢性が証明されました。
シンプルな合成戦略の下では、既存の方法を大幅に上回ります。
さらに、最先端の定位性能も実現します。
コードは https://github.com/caiyuxuan1120/DAF で入手できます。

要約(オリジナル)

Defect detection is a critical research area in artificial intelligence. Recently, synthetic data-based self-supervised learning has shown great potential on this task. Although many sophisticated synthesizing strategies exist, little research has been done to investigate the robustness of models when faced with different strategies. In this paper, we focus on this issue and find that existing methods are highly sensitive to them. To alleviate this issue, we present a Discrepancy Aware Framework (DAF), which demonstrates robust performance consistently with simple and cheap strategies across different anomaly detection benchmarks. We hypothesize that the high sensitivity to synthetic data of existing self-supervised methods arises from their heavy reliance on the visual appearance of synthetic data during decoding. In contrast, our method leverages an appearance-agnostic cue to guide the decoder in identifying defects, thereby alleviating its reliance on synthetic appearance. To this end, inspired by existing knowledge distillation methods, we employ a teacher-student network, which is trained based on synthesized outliers, to compute the discrepancy map as the cue. Extensive experiments on two challenging datasets prove the robustness of our method. Under the simple synthesis strategies, it outperforms existing methods by a large margin. Furthermore, it also achieves the state-of-the-art localization performance. Code is available at: https://github.com/caiyuxuan1120/DAF.

arxiv情報

著者 Yuxuan Cai,Dingkang Liang,Dongliang Luo,Xinwei He,Xin Yang,Xiang Bai
発行日 2023-10-11 15:21:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク