Tissue Concepts: supervised foundation models in computational pathology

要約

病理学者の仕事量の増加により、診断タスクと定量的なバイオマーカー評価をサポートする自動化の必要性がますます明らかになってきています。
基盤モデルには、センター内およびセンター間での汎用性を向上させる可能性があり、専門的かつ堅牢な AI モデルのデータ効率的な開発の開始点として機能します。
ただし、トレーニング基盤モデル自体は通常、データ、計算、時間の点で非常に高価です。
本稿では、これらの費用を大幅に削減する教師ありトレーニング手法を提案します。
提案された方法は、合計 912,000 個のパッチに対して 16 の異なる分類、セグメンテーション、および検出タスクを組み合わせることにより、ジョイント エンコーダーをトレーニングするマルチタスク学習に基づいています。
エンコーダーはサンプルの特性を捕捉できるため、これを組織概念エンコーダーと呼びます。
センター全体にわたる Tissue Concepts エンコーダーのパフォーマンスと汎用性を評価するために、最も蔓延している 4 つの固形がん (乳がん、結腸がん、肺がん、前立腺がん) のスライド画像全体の分類が使用されました。
実験では、Tissue Concepts モデルが自己監視でトレーニングされたモデルと同等のパフォーマンスを達成しながら、必要なトレーニング パッチの量はわずか 6% であることが示されました。
さらに、Tissue Concepts エンコーダは、ドメイン内データとドメイン外データの両方で、ImageNet の事前トレーニングされたエンコーダよりも優れたパフォーマンスを発揮します。

要約(オリジナル)

Due to the increasing workload of pathologists, the need for automation to support diagnostic tasks and quantitative biomarker evaluation is becoming more and more apparent. Foundation models have the potential to improve generalizability within and across centers and serve as starting points for data efficient development of specialized yet robust AI models. However, the training foundation models themselves is usually very expensive in terms of data, computation, and time. This paper proposes a supervised training method that drastically reduces these expenses. The proposed method is based on multi-task learning to train a joint encoder, by combining 16 different classification, segmentation, and detection tasks on a total of 912,000 patches. Since the encoder is capable of capturing the properties of the samples, we term it the Tissue Concepts encoder. To evaluate the performance and generalizability of the Tissue Concepts encoder across centers, classification of whole slide images from four of the most prevalent solid cancers – breast, colon, lung, and prostate – was used. The experiments show that the Tissue Concepts model achieve comparable performance to models trained with self-supervision, while requiring only 6% of the amount of training patches. Furthermore, the Tissue Concepts encoder outperforms an ImageNet pre-trained encoder on both in-domain and out-of-domain data.

arxiv情報

著者 Till Nicke,Jan Raphael Schaefer,Henning Hoefener,Friedrich Feuerhake,Dorit Merhof,Fabian Kiessling,Johannes Lotz
発行日 2024-09-05 13:32:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク