要約
超音波を用いた前立腺がん検出のためのこれまでの機械学習法の多くは、前立腺組織生検に対応する大きな針跡(生検コアと呼ばれる)内にある超音波信号の小さな関心領域(ROI)を分類します。これらのROIスケールモデルは、生検コアで利用可能な病理組織学的結果がROI内の癌の分布に近似しているに過ぎないため、弱いラベリングに悩まされている。また、ROIスケールモデルは、病理医が通常考慮する文脈的な情報を利用していない。つまり、がんを識別する際に、周囲の組織やより大規模な傾向に関する情報を考慮しない。我々は、マルチスケール、すなわちROIスケールと生検コアスケールのアプローチをとることで、がん検出の向上を目指す。方法我々のマルチスケールアプローチは、(i)小さなROIから特徴を抽出するために自己教師付き学習を用いて訓練された「ROIスケール」モデルと、(ii)針跡領域の複数のROIから抽出した特徴の集合を処理して対応するコアの組織タイプを予測する「コアスケール」変換モデルとを組み合わせています。副産物としてのアテンションマップにより、ROIスケールで癌を局所化することができる。前立腺生検を受けた578人の患者から取得したマイクロ超音波のデータセットを用いて本手法を分析し、ベースラインモデルや文献にある他の大規模研究と本モデルを比較している。結果と結論我々のモデルは、ROIスケールのみのモデルと比較して、一貫して大幅な性能向上を示している。80.3%のAUROCを達成し、ROIスケールの分類と比較して統計的に有意な改善を示した。また、他の画像モダリティを用いた前立腺がん検出に関する大規模な研究とも比較しています。我々のコードは、www.github.com/med-i-lab/TRUSFormer で公開されています。
要約(オリジナル)
A large body of previous machine learning methods for ultrasound-based prostate cancer detection classify small regions of interest (ROIs) of ultrasound signals that lie within a larger needle trace corresponding to a prostate tissue biopsy (called biopsy core). These ROI-scale models suffer from weak labeling as histopathology results available for biopsy cores only approximate the distribution of cancer in the ROIs. ROI-scale models do not take advantage of contextual information that are normally considered by pathologists, i.e. they do not consider information about surrounding tissue and larger-scale trends when identifying cancer. We aim to improve cancer detection by taking a multi-scale, i.e. ROI-scale and biopsy core-scale, approach. Methods: Our multi-scale approach combines (i) an ‘ROI-scale’ model trained using self-supervised learning to extract features from small ROIs and (ii) a ‘core-scale’ transformer model that processes a collection of extracted features from multiple ROIs in the needle trace region to predict the tissue type of the corresponding core. Attention maps, as a byproduct, allow us to localize cancer at the ROI scale. We analyze this method using a dataset of micro-ultrasound acquired from 578 patients who underwent prostate biopsy, and compare our model to baseline models and other large-scale studies in the literature. Results and Conclusions: Our model shows consistent and substantial performance improvements compared to ROI-scale-only models. It achieves 80.3% AUROC, a statistically significant improvement over ROI-scale classification. We also compare our method to large studies on prostate cancer detection, using other imaging modalities. Our code is publicly available at www.github.com/med-i-lab/TRUSFormer
arxiv情報
著者 | Mahdi Gilany,Paul Wilson,Andrea Perera-Ortega,Amoon Jamzad,Minh Nguyen Nhat To,Fahimeh Fooladgar,Brian Wodlinger,Purang Abolmaesumi,Parvin Mousavi |
発行日 | 2023-03-03 18:12:46+00:00 |
arxivサイト | arxiv_id(pdf) |