Dual-Distribution Discrepancy for Anomaly Detection in Chest X-Rays

要約

胸部X線(CXR)は、さまざまな病気を診断するための最も一般的な放射線検査です。
高価で時間のかかる注釈があるため、教師なしの方法でCXRの異常を検出することは非常に有望です。
ただし、既存の方法のほとんどすべてが、異常検出を1クラス分類(OCC)の問題と見なしています。
彼らは、トレーニング中の既知の正常な画像のみの分布をモデル化し、正常なプロファイルに適合していないサンプルをテスト段階の異常として識別します。
したがって、異常を含む多数のラベルのない画像は、臨床診療では簡単に取得できますが、トレーニング段階では無視されます。
この論文では、既知の通常の画像とラベルのない画像の両方を利用して、新しい戦略である異常検出のための二重分布の不一致(DDAD)を提案します。
提案された方法は、2つのモジュールで構成されています。
トレーニング中、1つのモジュールは既知の正常画像とラベルなし画像の両方を入力として受け取り、何らかの方法でラベルなし画像から異常な特徴をキャプチャします。もう1つのモジュールは、既知の正常画像のみの分布をモデル化します。
続いて、2つのモジュール間の不一致、および通常の画像のみでトレーニングされたモジュール内の不一致は、異常を示す異常スコアとして設計されます。
3つのCXRデータセットでの実験は、提案されたDDADが一貫した大幅な向上を達成し、最先端の方法を上回っていることを示しています。
コードはhttps://github.com/caiyu6666/DDADで入手できます。

要約(オリジナル)

Chest X-ray (CXR) is the most typical radiological exam for diagnosis of various diseases. Due to the expensive and time-consuming annotations, detecting anomalies in CXRs in an unsupervised fashion is very promising. However, almost all of the existing methods consider anomaly detection as a one-class classification (OCC) problem. They model the distribution of only known normal images during training and identify the samples not conforming to normal profile as anomalies in the testing phase. A large number of unlabeled images containing anomalies are thus ignored in the training phase, although they are easy to obtain in clinical practice. In this paper, we propose a novel strategy, Dual-distribution Discrepancy for Anomaly Detection (DDAD), utilizing both known normal images and unlabeled images. The proposed method consists of two modules. During training, one module takes both known normal and unlabeled images as inputs, capturing anomalous features from unlabeled images in some way, while the other one models the distribution of only known normal images. Subsequently, inter-discrepancy between the two modules, and intra-discrepancy inside the module that is trained on only normal images are designed as anomaly scores to indicate anomalies. Experiments on three CXR datasets demonstrate that the proposed DDAD achieves consistent, significant gains and outperforms state-of-the-art methods. Code is available at https://github.com/caiyu6666/DDAD.

arxiv情報

著者 Yu Cai,Hao Chen,Xin Yang,Yu Zhou,Kwang-Ting Cheng
発行日 2022-06-29 08:38:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク