要約
基盤モデルは、複雑なパターンを区別するために大量のデータでトレーニングされており、最小限の計算リソースで幅広い下流タスクに適応できます。
ここでは、4,800 万枚の前立腺組織タイル画像で事前トレーニングすることにより、HistoEncoder と呼ばれる前立腺がんデジタル病理学の基礎モデルを開発します。
同様の組織学的パターンを持つタイル画像から抽出された HistoEncoder 特徴が特徴空間内で密接にマッピングされることを示します。
HistoEncoder は、微調整を行わない場合やトレーニング データが 1000 分の 1 の場合でも、自然画像で事前トレーニングされたモデルよりも優れたパフォーマンスを発揮します。
限られた量のデータと計算リソースを使用してモデルを微調整することによって HistoEncoder の機能を活用する 2 つのユース ケースについて説明します。
まず、HistoEncoder を使用して大規模なデータセットに高精度で自動的にアノテーションを付ける方法を示します。
第二に、組織学的解析と一般的に使用される臨床ノモグラムを組み合わせて、前立腺がんに特有の死亡生存モデルを大幅に改善します。
HistoEncoder などの基盤モデルを使用すると、リソースが限られている組織でも、大規模なデータセットや大量のコンピューティングを必要とせずに効果的な臨床ソフトウェア ツールを構築できます。
要約(オリジナル)
Foundation models are trained on massive amounts of data to distinguish complex patterns and can be adapted to a wide range of downstream tasks with minimal computational resources. Here, we develop a foundation model for prostate cancer digital pathology called HistoEncoder by pre-training on 48 million prostate tissue tile images. We demonstrate that HistoEncoder features extracted from tile images with similar histological patterns map closely together in the feature space. HistoEncoder outperforms models pre-trained with natural images, even without fine-tuning or with 1000 times less training data. We describe two use cases that leverage the capabilities of HistoEncoder by fine-tuning the model with a limited amount of data and computational resources. First, we show how HistoEncoder can be used to automatically annotate large-scale datasets with high accuracy. Second, we combine histomics with commonly used clinical nomograms, significantly improving prostate cancer-specific death survival models. Foundation models such as HistoEncoder can allow organizations with limited resources to build effective clinical software tools without needing extensive datasets or significant amounts of computing.
arxiv情報
著者 | Joona Pohjonen,Abderrahim-Oussama Batouche,Antti Rannikko,Kevin Sandeman,Andrew Erickson,Esa Pitkanen,Tuomas Mirtti |
発行日 | 2024-11-22 13:32:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google