要約
ワンクラスの異常検出は、事前定義された通常のクラスに属さないオブジェクトを検出することを目的としています。
実際には、トレーニングデータがこれらの異常なサンプルを欠いています。
したがって、最先端の方法は、正常と合成に生成された擬似非類のないデータを区別するために訓練されています。
ほとんどの方法は、異常をシミュレートするために、通常の画像のデータ増強技術を使用します。
ただし、ベンチマークデータセットに存在する幾何学的なバイアスを暗黙的に活用しています。
これにより、より一般的な条件での使いやすさが制限されます。
その他は、通常のデータの基礎となる構造をキャプチャする際に最適ではない基本的なノーシングスキームに依存しています。
さらに、ほとんどが画像ドメインを支持して、通常のクラスのみからエンドツーエンドの擬似的なトレーニングモデルを生成し、情報のより豊かな表現を見下ろしています。
これらの制限を克服するために、凍結していたが豊富な特徴スペースが前処理されたモデルによって与えられると考え、新しい適応線形特徴摂動技術を備えた擬似非類似の特徴を作成します。
各サンプルにノイズ分布を適応させ、減衰線形摂動を適用してベクターを特徴とし、対照学習目標を使用して分類プロセスをさらにガイドします。
標準および幾何学的バイアスのないデータセットの両方で実施された実験的評価は、同等のベースラインに関するアプローチの優位性を示しています。
コードベースには、パブリックリポジトリからアクセスできます。
要約(オリジナル)
One-class anomaly detection aims to detect objects that do not belong to a predefined normal class. In practice training data lack those anomalous samples; hence state-of-the-art methods are trained to discriminate between normal and synthetically-generated pseudo-anomalous data. Most methods use data augmentation techniques on normal images to simulate anomalies. However the best-performing ones implicitly leverage a geometric bias present in the benchmarking datasets. This limits their usability in more general conditions. Others are relying on basic noising schemes that may be suboptimal in capturing the underlying structure of normal data. In addition most still favour the image domain to generate pseudo-anomalies training models end-to-end from only the normal class and overlooking richer representations of the information. To overcome these limitations we consider frozen yet rich feature spaces given by pretrained models and create pseudo-anomalous features with a novel adaptive linear feature perturbation technique. It adapts the noise distribution to each sample applies decaying linear perturbations to feature vectors and further guides the classification process using a contrastive learning objective. Experimental evaluation conducted on both standard and geometric bias-free datasets demonstrates the superiority of our approach with respect to comparable baselines. The codebase is accessible via our public repository.
arxiv情報
著者 | Romain Hermary,Vincent Gaudillière,Abd El Rahman Shabayek,Djamila Aouada |
発行日 | 2025-03-07 15:42:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google