CRADL: Contrastive Representations for Unsupervised Anomaly Detection and Localization

要約

医用画像における教師なし異常検出は、学習時に注釈付きの異常データを必要とせずに、任意の異常を検出し、その位置を特定することを目的としている。多くの場合、これは正常なサンプルのデータ分布を学習し、この分布から逸脱した画像中の領域として異常を検出することで達成される。現在主流の手法では、画像上で直接動作する潜在変数型生成モデルを用いている。しかし、生成モデルでは、意味的な特徴ではなく、画素強度などの低レベルの特徴を捉えることが多く、このことは生成モデルの表現にも当てはまる。この問題を回避するために、我々はCRADLを提案する。CRADLは、対照的な文脈タスクで学習したエンコーダの低次元表現空間において、正常サンプルの分布を直接モデル化することをコアアイデアとする。コントラスト学習の表現を利用することで、低レベル特徴への過度の依存を修正し、より意味的に豊かな表現を学習することを目的とする。3つの異なる評価データセットを用いた異常検知タスクとローカライゼーションタスクの実験により、1) 対照的な表現が生成潜在変数モデルの表現よりも優れていること、2) CRADLフレームワークは最先端技術と同等以上の性能を示すことが示される。

要約(オリジナル)

Unsupervised anomaly detection in medical imaging aims to detect and localize arbitrary anomalies without requiring annotated anomalous data during training. Often, this is achieved by learning a data distribution of normal samples and detecting anomalies as regions in the image which deviate from this distribution. Most current state-of-the-art methods use latent variable generative models operating directly on the images. However, generative models have been shown to mostly capture low-level features, s.a. pixel-intensities, instead of rich semantic features, which also applies to their representations. We circumvent this problem by proposing CRADL whose core idea is to model the distribution of normal samples directly in the low-dimensional representation space of an encoder trained with a contrastive pretext-task. By utilizing the representations of contrastive learning, we aim to fix the over-fixation on low-level features and learn more semantic-rich representations. Our experiments on anomaly detection and localization tasks using three distinct evaluation datasets show that 1) contrastive representations are superior to representations of generative latent variable models and 2) the CRADL framework shows competitive or superior performance to state-of-the-art.

arxiv情報

著者 Carsten T. Lüth,David Zimmerer,Gregor Koehler,Paul F. Jaeger,Fabian Isensee,Jens Petersen,Klaus H. Maier-Hein
発行日 2023-01-05 16:07:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク