Dual-Distribution Discrepancy for Anomaly Detection in Chest X-Rays

要約

胸部X線(CXR)は、様々な疾患の診断のための最も代表的な放射線検査である。高価で時間のかかるアノテーションのため、教師なし方式でCXRの異常を検出することは非常に有望である。しかし、既存の手法のほぼ全ては、異常検出を1クラス分類(OCC)問題として考えている。これらの手法は、学習時に既知の正常画像のみの分布をモデル化し、テスト段階で正常プロファイルに適合しないサンプルを異常として識別する。そのため、臨床で入手しやすいにもかかわらず、異常画像を含む多数の未標識画像が学習段階で無視される。本論文では、既知の正常画像と未ラベル画像の両方を利用した新しい手法、Dual-distribution Discrepancy for Anomaly Detection (DDAD)を提案する。提案手法はA、Bと表記される2つのモジュールから構成される。学習時、モジュールAは既知の正常画像とラベル無し画像の両方を入力とし、ラベル無し画像から何らかの方法で異常な特徴をとらえ、モジュールBは既知の正常画像のみの分布をモデル化する。その後、モジュールAとモジュールBの間の乖離と、モジュールB内部の乖離を、異常を示す異常スコアとして設計する。3つのCXRデータセットでの実験により、提案するDDADは一貫して有意な利益を達成し、最先端の手法を上回ることを実証する。コードは https://github.com/caiyu6666/DDAD で公開されている。

要約(オリジナル)

Chest X-ray (CXR) is the most typical radiological exam for diagnosis of various diseases. Due to the expensive and time-consuming annotations, detecting anomalies in CXRs in an unsupervised fashion is very promising. However, almost all of the existing methods consider anomaly detection as a One-Class Classification (OCC) problem. They model the distribution of only known normal images during training and identify the samples not conforming to normal profile as anomalies in the testing phase. A large number of unlabeled images containing anomalies are thus ignored in the training phase, although they are easy to obtain in clinical practice. In this paper, we propose a novel strategy, Dual-distribution Discrepancy for Anomaly Detection (DDAD), utilizing both known normal images and unlabeled images. The proposed method consists of two modules, denoted as A and B. During training, module A takes both known normal and unlabeled images as inputs, capturing anomalous features from unlabeled images in some way, while module B models the distribution of only known normal images. Subsequently, the inter-discrepancy between modules A and B, and intra-discrepancy inside module B are designed as anomaly scores to indicate anomalies. Experiments on three CXR datasets demonstrate that the proposed DDAD achieves consistent, significant gains and outperforms state-of-the-art methods. Code is available at https://github.com/caiyu6666/DDAD.

arxiv情報

著者 Yu Cai,Hao Chen,Xin Yang,Yu Zhou,Kwang-Ting Cheng
発行日 2022-06-09 02:15:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク