要約
デジタルパソロジーでは、全スライド画像 (WSI) または組織病理画像が使用されます。
WSI は、サイズが大きく、ピクセルレベルの注釈がないため、臨床診断用の深層学習モデルに大きな課題をもたらします。
計算病理学の最近の進歩により、新しい複数インスタンス学習ベースのモデルが提案されています。
WSI の複数インスタンスの学習では、パッチを作成する必要があり、これらのパッチのエンコーディングを診断に使用します。
これらのモデルは、パッチ エンコーディングに一般的な事前トレーニング済みモデル (ImageNet で事前トレーニング済みの ResNet-50) を使用します。
最近提案された KimiaNet (TCGA スライドで事前トレーニングされた DenseNet121 モデル) は、ドメイン固有の事前トレーニング済みモデルです。
この論文では、WSI 分類に対するドメイン固有の事前トレーニングの効果を示します。
ドメイン固有の事前トレーニングの影響を調査するために、現在の最先端の複数インスタンス学習モデル、1) 注意ベースのモデルである CLAM、および 2) 自己注意ベースのモデルである TransMIL を検討しました。
モデルを作成し、原発性脳腫瘍である神経膠腫の検出におけるモデルの信頼性と予測性能を評価しました。
ドメイン固有の事前トレーニングにより、モデルの信頼性が向上し、WSI ベースの神経膠腫サブタイプ分類の新しい最先端のパフォーマンスも達成され、神経膠腫診断の支援における高い臨床的適用性が示されます。
要約(オリジナル)
Whole Slide Images (WSIs) or histopathology images are used in digital pathology. WSIs pose great challenges to deep learning models for clinical diagnosis, owing to their size and lack of pixel-level annotations. With the recent advancements in computational pathology, newer multiple-instance learning-based models have been proposed. Multiple-instance learning for WSIs necessitates creating patches and uses the encoding of these patches for diagnosis. These models use generic pre-trained models (ResNet-50 pre-trained on ImageNet) for patch encoding. The recently proposed KimiaNet, a DenseNet121 model pre-trained on TCGA slides, is a domain-specific pre-trained model. This paper shows the effect of domain-specific pre-training on WSI classification. To investigate the impact of domain-specific pre-training, we considered the current state-of-the-art multiple-instance learning models, 1) CLAM, an attention-based model, and 2) TransMIL, a self-attention-based model, and evaluated the models’ confidence and predictive performance in detecting primary brain tumors – gliomas. Domain-specific pre-training improves the confidence of the models and also achieves a new state-of-the-art performance of WSI-based glioma subtype classification, showing a high clinical applicability in assisting glioma diagnosis.
arxiv情報
著者 | Soham Rohit Chitnis,Sidong Liu,Tirtharaj Dash,Tanmay Tulsidas Verlekar,Antonio Di Ieva,Shlomo Berkovsky,Lovekesh Vig,Ashwin Srinivasan |
発行日 | 2023-02-20 08:42:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google