要約
脳腫瘍の複雑な不均一性は、定期的な臨床ケアから引き出された完全に包括的で大規模なコレクションのみがもっともらしく提供できる規模と豊富なデータを要求することがますます認識されています。
これは、特にニューロ イメージングにおいて、現代の機械学習が促進できるタスクですが、現実世界の臨床診療で一般的な不完全なデータを処理する能力は不明のままです。
ここでは、最先端の方法を大規模なマルチサイト MRI データに適用して、臨床現場で観察されるさまざまなレベルのシーケンスの可用性を複製する自動腫瘍セグメンテーション モデルの比較忠実度を定量化します。
深層学習 (nnU-Net 派生) セグメンテーション モデルを、T1、造影 T1、T2、および FLAIR シーケンスのすべての可能な組み合わせと比較し、2021 年の BraTS-RSNA 神経膠腫集団の 5 倍交差検証でトレーニングおよび検証されます。
1,251 人の患者、実際の 50 人の患者サンプルでさらにテストを行い、MRI スキャナーと磁場強度だけでなく、手術前および手術後の画像のランダムな選択も多様でした。
不完全な画像データでトレーニングされたモデルは病変をうまくセグメント化し、完全なデータでトレーニングされたモデルとしばしば同等であり、腫瘍全体で 0.907 (単一シーケンス) から 0.945 (完全なデータセット)、および 0.701 (単一シーケンス) から 0.891 (完全なデータセット) の Dice 係数を示しました。
成分組織タイプ用。
不完全なデータ セグメンテーション モデルは、コントラスト イメージングがない場合に増強腫瘍を正確に検出し、その体積を 0.95 ~ 0.97 の R2 で定量化し、病変形態計測に対して不変でした。
ディープ ラーニング セグメンテーション モデルは、データが欠落している場合でも腫瘍を適切に特徴付け、造影剤を使用せずに増強組織を検出することさえできます。
これは、不完全なデータが一般的である臨床診療への変換が、これまで信じられていたよりも簡単であり、造影剤の使用への依存を減らすのに役立つ可能性があることを示唆しています.
要約(オリジナル)
The complex heterogeneity of brain tumours is increasingly recognized to demand data of magnitudes and richness only fully-inclusive, large-scale collections drawn from routine clinical care could plausibly offer. This is a task contemporary machine learning could facilitate, especially in neuroimaging, but its ability to deal with incomplete data common in real world clinical practice remains unknown. Here we apply state-of-the-art methods to large scale, multi-site MRI data to quantify the comparative fidelity of automated tumour segmentation models replicating the various levels of sequence availability observed in the clinical reality. We compare deep learning (nnU-Net-derived) segmentation models with all possible combinations of T1, contrast-enhanced T1, T2, and FLAIR sequences, trained and validated with five-fold cross-validation on the 2021 BraTS-RSNA glioma population of 1251 patients, with further testing on a real-world 50 patient sample diverse in not only MRI scanner and field strength, but a random selection of pre- and post-operative imaging also. Models trained on incomplete imaging data segmented lesions well, often equivalently to those trained on complete data, exhibiting Dice coefficients of 0.907 (single sequence) to 0.945 (full datasets) for whole tumours, and 0.701 (single sequence) to 0.891 (full datasets) for component tissue types. Incomplete data segmentation models could accurately detect enhancing tumour in the absence of contrast imaging, quantifying its volume with an R2 between 0.95-0.97, and were invariant to lesion morphometry. Deep learning segmentation models characterize tumours well when missing data and can even detect enhancing tissue without the use of contrast. This suggests translation to clinical practice, where incomplete data is common, may be easier than hitherto believed, and may be of value in reducing dependence on contrast use.
arxiv情報
著者 | James K Ruffle,Samia Mohinta,Robert J Gray,Harpreet Hyare,Parashkev Nachev |
発行日 | 2023-02-22 14:12:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google