Cross-Shaped Windows Transformer with Self-supervised Pretraining for Clinically Significant Prostate Cancer Detection in Bi-parametric MRI

要約

タイトル:クリニカルに有意な前立腺がん検出のための自己教師あり事前学習を組み合わせた十字の形をしたウィンドウトランスフォーマー

要約:
– 多次元磁気共鳴イメージング(mpMRI)は、深層畳み込みニューラルネットワーク(CNN)を使った前立腺癌(PCa)の検出において有望な結果を示しているが、医療画像においては註釈付きデータを用意することが困難である。
– 著者らは、自己教師あり学習を使った事前学習が、註釈のないデータから有用なセマンティック表現を抽出し、ネットワークの汎化性能を向上させ、註釈された限られたデータにおける後段タスクのモデル性能を向上させることができることを示した。
– 著者らは、新しいエンド-to-エンドクロスシェイプウィンドウ(CSwin)トランスフォーマーUNetモデル、CSwin UNetを紹介し、前立腺の二次元画像(bpMRI)におけるクリニカルに有意な前立腺癌(csPCa)の検出に使用する。
– T2加重画像と拡散加重画像の組み合わせで構成された1,500人の患者の大規模な前立腺bpMRIデータセットを用いて、著者らは、マルチタスク自己教師あり学習を使用して、CSwin transformerを事前訓練し、データ効率性とネットワークの汎化性能を向上させた。そして、レジオンの注釈を使用して微調整し、csPCaの検出を行った。
– 5つの交差検証を行い、自己教師ありCSwin UNetが、4つの最先端モデル(Swin UNETR、DynUNet、Attention UNet、UNet)を有意に上回る0.888 AUCと0.545平均精度(AP)を達成したことを示した。
– 158人のデータセットを利用して、外部保有データに対するモデルの頑健性を評価し、自己教師ありCSwin UNetが0.79 AUCと0.45 APの結果を示し、他の比較可能な方法を上回り、データセットのシフトにも対応できることを示した。

要約(オリジナル)

Multiparametric magnetic resonance imaging (mpMRI) has demonstrated promising results in prostate cancer (PCa) detection using deep convolutional neural networks (CNNs). Recently, transformers have achieved competitive performance compared to CNNs in computer vision. Large-scale transformers need abundant annotated data for training, which are difficult to obtain in medical imaging. Self-supervised learning can effectively leverage unlabeled data to extract useful semantic representations without annotation and its associated costs. This can improve model performance on downstream tasks with limited labelled data and increase generalizability. We introduce a novel end-to-end Cross-Shaped windows (CSwin) transformer UNet model, CSwin UNet, to detect clinically significant prostate cancer (csPCa) in prostate bi-parametric MR imaging (bpMRI) and demonstrate the effectiveness of our proposed self-supervised pre-training framework. Using a large prostate bpMRI dataset with 1500 patients, we first pre-train CSwin transformer using multi-task self-supervised learning to improve data-efficiency and network generalizability. We then finetuned using lesion annotations to perform csPCa detection. Five-fold cross validation shows that self-supervised CSwin UNet achieves 0.888 AUC and 0.545 Average Precision (AP), significantly outperforming four state-of-the-art models (Swin UNETR, DynUNet, Attention UNet, UNet). Using a separate bpMRI dataset with 158 patients, we evaluated our model robustness to external hold-out data. Self-supervised CSwin UNet achieves 0.79 AUC and 0.45 AP, still outperforming all other comparable methods and demonstrating generalization to a dataset shift.

arxiv情報

著者 Yuheng Li,Jacob Wynne,Jing Wang,Richard L. J. Qiu,Justin Roper,Shaoyan Pan,Ashesh B. Jani,Tian Liu,Pretesh R. Patel,Hui Mao,Xiaofeng Yang
発行日 2023-04-30 04:40:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク