Breast Cancer Diagnosis in Two-View Mammography Using End-to-End Trained EfficientNet-Based Convolutional Network

要約

最近のいくつかの研究では、深層畳み込みニューラルネットワークがマンモグラムの乳がんを診断し、人間の専門家と同様、あるいはそれ以上の性能を発揮することが報告されている。1つ目は自然画像で学習したモデルを用いて、小さなサブ画像を分類する「パッチ分類器」を作成し、2つ目はパッチ分類器を用いてマンモグラム全体をスキャンし、「単像全画像分類器」を作成するというものである。さらに、3回目の転送学習を行い、2つのマンモグラフィビュー(両側頭尾部および縦側斜位)を使用する「2ビュー分類器」を得ることを提案する。EfficientNetをモデルのベースとして使用する。CBIS-DDSMデータセットを用いて、システム全体を「エンド・ツー・エンド」で学習させます。統計的な頑健性を確保するため、(a)5重クロスバリデーション、(b)データセットのオリジナルのトレーニング/テスト分割を用いて、システムを2回テストしました。5重クロスバリデーションでは、AUCが0.9344となった(精度、感度、特異度は、ROCの等エラー率ポイントにおいて85.13%)。また、元のデータセットを分割して用いた場合、我々の手法は0.8483のAUCを達成し、我々の知る限り、この問題に対する最も高いAUCを報告している。ただし、それぞれの作品のテスト条件の微妙な違いにより、正確な比較はできない。推論コードとモデルは、https://github.com/dpetrini/two-views-classifier で公開されている。

要約(オリジナル)

Some recent studies have described deep convolutional neural networks to diagnose breast cancer in mammograms with similar or even superior performance to that of human experts. One of the best techniques does two transfer learnings: the first uses a model trained on natural images to create a ‘patch classifier’ that categorizes small subimages; the second uses the patch classifier to scan the whole mammogram and create the ‘single-view whole-image classifier’. We propose to make a third transfer learning to obtain a ‘two-view classifier’ to use the two mammographic views: bilateral craniocaudal and mediolateral oblique. We use EfficientNet as the basis of our model. We ‘end-to-end’ train the entire system using CBIS-DDSM dataset. To ensure statistical robustness, we test our system twice using: (a) 5-fold cross validation; and (b) the original training/test division of the dataset. Our technique reached an AUC of 0.9344 using 5-fold cross validation (accuracy, sensitivity and specificity are 85.13% at the equal error rate point of ROC). Using the original dataset division, our technique achieved an AUC of 0.8483, as far as we know the highest reported AUC for this problem, although the subtle differences in the testing conditions of each work do not allow for an accurate comparison. The inference code and model are available at https://github.com/dpetrini/two-views-classifier

arxiv情報

著者 Daniel G. P. Petrini,Carlos Shimizu,Rosimeire A. Roela,Gabriel V. Valente,Maria A. A. K. Folgueira,Hae Yong Kim
発行日 2022-08-03 17:18:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク