A Clinical Benchmark of Public Self-Supervised Pathology Foundation Models

要約

病理学基礎モデルをトレーニングするための自己教師あり学習 (SSL) の使用は、ここ数年で大幅に増加しました。
注目すべきことに、ここ数カ月間、大量の臨床データに基づいてトレーニングされたいくつかのモデルが一般公開されています。
これにより、計算病理学における科学研究が大幅に強化され、研究と臨床展開の間のギャップを埋めるのに役立ちます。
さまざまなデータセットでさまざまなアルゴリズムを使用してトレーニングされた、さまざまなサイズの公的財団モデルの利用可能性が増加しているため、複数の臓器や疾患にわたるさまざまな臨床関連タスクにおけるそのようなモデルのパフォーマンスを比較するためのベンチマークを確立することが重要になっています。
この研究では、がん診断や 2 つの医療センターからの標準的な病院運営中に生成されるさまざまなバイオマーカーなど、臨床的に関連するエンドポイントに関連する臨床スライドで構成される病理データセットのコレクションを紹介します。
これらのデータセットを活用して、公的病理学基礎モデルのパフォーマンスを体系的に評価し、新しい基礎モデルをトレーニングし、適切な事前トレーニング済みモデルを選択するためのベスト プラクティスについての洞察を提供します。

要約(オリジナル)

The use of self-supervised learning (SSL) to train pathology foundation models has increased substantially in the past few years. Notably, several models trained on large quantities of clinical data have been made publicly available in recent months. This will significantly enhance scientific research in computational pathology and help bridge the gap between research and clinical deployment. With the increase in availability of public foundation models of different sizes, trained using different algorithms on different datasets, it becomes important to establish a benchmark to compare the performance of such models on a variety of clinically relevant tasks spanning multiple organs and diseases. In this work, we present a collection of pathology datasets comprising clinical slides associated with clinically relevant endpoints including cancer diagnoses and a variety of biomarkers generated during standard hospital operation from two medical centers. We leverage these datasets to systematically assess the performance of public pathology foundation models and provide insights into best practices for training new foundation models and selecting appropriate pretrained models.

arxiv情報

著者 Gabriele Campanella,Shengjia Chen,Ruchika Verma,Jennifer Zeng,Aryeh Stock,Matt Croken,Brandon Veremis,Abdulkadir Elmas,Kuan-lin Huang,Ricky Kwan,Jane Houldsworth,Adam J. Schoenfeld,Chad Vanderbilt
発行日 2024-07-11 16:16:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク