Translating automated brain tumour phenotyping to clinical neuroimaging

要約

背景:脳腫瘍の複雑な不均一性は、日常的な臨床ケアから引き出された完全に包括的で大規模なコレクションのみが提供できる規模と豊富さのデータを要求することがますます認識されています。
これは、特にニューロイメージングにおいて、現代の機械学習が促進できるタスクですが、実際の臨床診療で一般的な不完全なデータを処理する能力は不明なままです。
ここでは、最先端の方法を大規模なマルチサイトMRIデータに適用して、臨床の現実で観察されるさまざまなレベルの完全性を再現する自動腫瘍セグメンテーションモデルの忠実度の比較を定量化します。
方法:深層学習(nnU-Net由来)腫瘍セグメンテーションモデルを、T1、コントラスト強調T1、T2、およびFLAIRイメージングシーケンスのすべての可能な組み合わせと比較し、2021BraTSで5回の交差検証でトレーニングおよび検証しました-
1251人の患者のRSNA神経膠腫集団、および多様な実世界の50人の患者サンプルでテストされました。
結果:不完全なデータで十分にトレーニングされたモデルは、病変全体でトレーニングされたモデルと同等であり、腫瘍全体で0.907(単一シーケンス)から0.945(完全なデータセット)、0.701(単一シーケンス)から0.891(完全なデータセット)のダイス係数を示します。
)コンポーネント組織タイプの場合。
不完全なデータセグメンテーションモデルは、コントラストイメージングがない場合に腫瘍の増強を正確に検出し、0.95〜0.97のR2でその体積を定量化することができます。
結論:深層学習セグメンテーションモデルは、データが欠落している場合に腫瘍を適切に特徴付け、コントラストを使用せずに組織の増強を検出することもできます。
これは、不完全なデータが一般的であり、これまで考えられていたよりも簡単であり、造影剤の使用への依存を減らすのに役立つ可能性がある臨床診療への翻訳を示唆しています。

要約(オリジナル)

Background: The complex heterogeneity of brain tumours is increasingly recognized to demand data of magnitudes and richness only fully-inclusive, large-scale collections drawn from routine clinical care could plausibly offer. This is a task contemporary machine learning could facilitate, especially in neuroimaging, but its ability to deal with incomplete data common in real world clinical practice remains unknown. Here we apply state-of-the-art methods to large scale, multi-site MRI data to quantify the comparative fidelity of automated tumour segmentation models replicating the various levels of completeness observed in clinical reality. Methods: We compare deep learning (nnU-Net-derived) tumour segmentation models with all possible combinations of T1, contrast-enhanced T1, T2, and FLAIR imaging sequences, trained and validated with five-fold cross-validation on the 2021 BraTS-RSNA glioma population of 1251 patients, and tested on a diverse, real-world 50 patient sample. Results: Models trained on incomplete data segmented lesions well, often equivalently to those trained on complete data, exhibiting Dice coefficients of 0.907 (single sequence) to 0.945 (full datasets) for whole tumours, and 0.701 (single sequence) to 0.891 (full datasets) for component tissue types. Incomplete data segmentation models could accurately detect enhancing tumour in the absence of contrast imaging, quantifying its volume with an R2 between 0.95-0.97. Conclusions: Deep learning segmentation models characterize tumours well when missing data and can even detect enhancing tissue without the use of contrast. This suggests translation to clinical practice, where incomplete data is common, may be easier than hitherto believed, and may be of value in reducing dependence on contrast use.

arxiv情報

著者 James K Ruffle,Samia Mohinta,Robert J Gray,Harpreet Hyare,Parashkev Nachev
発行日 2022-06-13 12:58:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, q-bio.TO パーマリンク