要約
組織病理学的画像は、罹患(腫瘍)組織の分析および患者の治療法の選択に広く使用されています。
顕微鏡画像処理の大部分は以前は病理学者によって手動で行われていましたが、最近のコンピュータービジョンの進歩により、深層学習ベースのソリューションで病変領域を正確に認識できるようになりました。
ただし、このようなモデルは通常、トレーニング用に大規模な注釈付きデータセットを必要としますが、利用可能な患者データ サンプルの数が非常に限られている検討対象のタスクでは当てはまらないことがよくあります。
この問題に対処するために、細胞形態を学習し、多数の異なる癌の種類を識別するために事前トレーニングされた新しい DeepCMorph モデルを提案します。
このモデルは 2 つのモジュールで構成されます。最初のモジュールは細胞核のセグメンテーションを実行し、各細胞タイプに注釈を付けます。また、高い一般化性と堅牢性を確保するために、8 つの公開データセットの組み合わせでトレーニングされます。
2 番目のモジュールは、取得したセグメンテーション マップを元の顕微鏡画像と結合し、下流のタスク用にトレーニングされます。
このモジュールは、7,175 人の患者の 8,736 枚の診断スライドから抽出された 27 万を超える組織パッチで構成される Pan-Cancer TCGA データセットで事前トレーニングされました。
提案されたソリューションは、検討中のデータセットで新しい最先端のパフォーマンスを達成し、32 種類のがんを 82% 以上の精度で検出し、以前に提案されたすべてのソリューションを 4% 以上上回りました。
結果として得られる事前トレーニング済みモデルは、小規模な顕微鏡データセットで簡単に微調整でき、現在のトップ ソリューションや ImageNet 重みで初期化されたモデルと比較して優れた結果が得られることを実証します。
このペーパーで紹介されているコードと事前トレーニングされたモデルは、https://github.com/aiff22/DeepCMorph から入手できます。
要約(オリジナル)
Histopathological images are widely used for the analysis of diseased (tumor) tissues and patient treatment selection. While the majority of microscopy image processing was previously done manually by pathologists, recent advances in computer vision allow for accurate recognition of lesion regions with deep learning-based solutions. Such models, however, usually require extensive annotated datasets for training, which is often not the case in the considered task, where the number of available patient data samples is very limited. To deal with this problem, we propose a novel DeepCMorph model pre-trained to learn cell morphology and identify a large number of different cancer types. The model consists of two modules: the first one performs cell nuclei segmentation and annotates each cell type, and is trained on a combination of 8 publicly available datasets to ensure its high generalizability and robustness. The second module combines the obtained segmentation map with the original microscopy image and is trained for the downstream task. We pre-trained this module on the Pan-Cancer TCGA dataset consisting of over 270K tissue patches extracted from 8736 diagnostic slides from 7175 patients. The proposed solution achieved a new state-of-the-art performance on the dataset under consideration, detecting 32 cancer types with over 82% accuracy and outperforming all previously proposed solutions by more than 4%. We demonstrate that the resulting pre-trained model can be easily fine-tuned on smaller microscopy datasets, yielding superior results compared to the current top solutions and models initialized with ImageNet weights. The codes and pre-trained models presented in this paper are available at: https://github.com/aiff22/DeepCMorph
arxiv情報
著者 | Andrey Ignatov,Josephine Yates,Valentina Boeva |
発行日 | 2024-07-11 16:03:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google