要約
3D医療画像の自己教師学習(SSL)の分野には、一貫性と標準化がありません。
多くの方法が開発されていますが、i)さまざまな事前トレーニングデータセット、ii)さまざまなアーキテクチャ、およびiii)異なる下流のデータセットで評価されるため、現在の最先端を特定することは不可能です。
この論文では、この分野に明確さをもたらし、3つの重要な貢献を通じてさらなる方法の進歩の基盤を築きます。114K3D脳MRIボリュームで構成される最大の公開されているプリトレーニングデータセットを公開し、すべての実務家が大規模なデータセットで事前トレーニングを行うことを可能にします。
b)最先端のCNNおよびトランスアーキテクチャのために、このデータセットに既存の3D自己監視学習方法をベンチマークし、3D SSLプリトレーニングの状態を明確にします。
多くの調査結果の中で、事前に訓練された方法が、Scratchからの強いNnu-Net Resenc-Lベースラインを超える可能性があることを示しています。
最後に、c)トレーニング前および微調整のフレームワークのコードを公開し、ベンチマークプロセス中に作成された事前に訓練されたモデルを提供して、迅速な採用と繁殖を促進します。
要約(オリジナル)
The field of self-supervised learning (SSL) for 3D medical images lacks consistency and standardization. While many methods have been developed, it is impossible to identify the current state-of-the-art, due to i) varying and small pretraining datasets, ii) varying architectures, and iii) being evaluated on differing downstream datasets. In this paper, we bring clarity to this field and lay the foundation for further method advancements through three key contributions: We a) publish the largest publicly available pre-training dataset comprising 114k 3D brain MRI volumes, enabling all practitioners to pre-train on a large-scale dataset. We b) benchmark existing 3D self-supervised learning methods on this dataset for a state-of-the-art CNN and Transformer architecture, clarifying the state of 3D SSL pre-training. Among many findings, we show that pre-trained methods can exceed a strong from-scratch nnU-Net ResEnc-L baseline. Lastly, we c) publish the code of our pre-training and fine-tuning frameworks and provide the pre-trained models created during the benchmarking process to facilitate rapid adoption and reproduction.
arxiv情報
著者 | Tassilo Wald,Constantin Ulrich,Jonathan Suprijadi,Sebastian Ziegler,Michal Nohel,Robin Peretzke,Gregor Köhler,Klaus H. Maier-Hein |
発行日 | 2025-04-18 13:14:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google