要約
教師あり学習は画像セグメンテーションの高性能化を可能にしましたが、大量のラベル付きトレーニング データが必要であり、医療画像分野では取得が困難な場合があります。
口実タスクを含む自己教師あり学習 (SSL) メソッドは、最初にラベルのないデータを使用してモデルを事前トレーニングすることにより、この要件を克服する見込みがあることを示しています。
この作業では、ラベルが制限されたシナリオでの CT および MRI 画像セグメンテーションに対する 2 つの SSL メソッド (コンテキスト予測とコンテキスト復元の修復ベースの口実タスク) の有効性を評価し、下流のセグメンテーションに対する SSL の実装設計の選択の影響を調査します。
パフォーマンス。
最適にトレーニングされ、実装が容易なインペインティング ベースの SSL セグメンテーション モデルは、臨床的に関連する指標と従来の Dice スコアの両方について、ラベルが制限されたシナリオでの MRI および CT 組織セグメンテーションの従来の教師あり方法よりも優れていることを示します。
要約(オリジナル)
Although supervised learning has enabled high performance for image segmentation, it requires a large amount of labeled training data, which can be difficult to obtain in the medical imaging field. Self-supervised learning (SSL) methods involving pretext tasks have shown promise in overcoming this requirement by first pretraining models using unlabeled data. In this work, we evaluate the efficacy of two SSL methods (inpainting-based pretext tasks of context prediction and context restoration) for CT and MRI image segmentation in label-limited scenarios, and investigate the effect of implementation design choices for SSL on downstream segmentation performance. We demonstrate that optimally trained and easy-to-implement inpainting-based SSL segmentation models can outperform classically supervised methods for MRI and CT tissue segmentation in label-limited scenarios, for both clinically-relevant metrics and the traditional Dice score.
arxiv情報
著者 | Jeffrey Dominic,Nandita Bhaskhar,Arjun D. Desai,Andrew Schmidt,Elka Rubin,Beliz Gunel,Garry E. Gold,Brian A. Hargreaves,Leon Lenchik,Robert Boutin,Akshay S. Chaudhari |
発行日 | 2022-10-14 16:34:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google