要約
ディープラーニングは、多様な臨床タスク全体で最先端のパフォーマンスを達成し、大幅に高度な医療イメージング分析(MIA)を持っています。
ただし、その成功は、大規模で高品質のラベル付きデータセットに大きく依存します。これは、専門家の注釈が必要なため、費用がかかり、時間がかかります。
この制限を緩和するために、ラベル、非標識、および弱いラベル付きデータを活用することにより、限られた監督の下でモデルのパフォーマンスを改善するために、ラベル効率の良い深い学習方法が浮上しています。
この調査では、350を超えるピアレビューされた研究を体系的にレビューし、MIAのラベル効率の高い学習方法の包括的な分類法を提示します。
これらの方法は、4つのラベルパラダイムに分類されます。ラベルなし、ラベル不足、不正ラベル、ラベルの洗練です。
各カテゴリについて、イメージングのモダリティと臨床アプリケーション全体の代表的な手法を分析し、共有された方法論的原則とタスク固有の適応を強調します。
また、大規模なトレーニング前および転送学習を通じてラベル効率の高い学習を可能にし、下流タスクでの限られた注釈の使用を強化することを可能にするヘルスファンデーションモデル(HFMS)の役割の高まりを調べます。
最後に、研究の約束から日常の臨床ケアへのラベル効率の高い学習の翻訳を促進するために、現在の課題と将来の方向性を特定します。
要約(オリジナル)
Deep learning has significantly advanced medical imaging analysis (MIA), achieving state-of-the-art performance across diverse clinical tasks. However, its success largely depends on large-scale, high-quality labeled datasets, which are costly and time-consuming to obtain due to the need for expert annotation. To mitigate this limitation, label-efficient deep learning methods have emerged to improve model performance under limited supervision by leveraging labeled, unlabeled, and weakly labeled data. In this survey, we systematically review over 350 peer-reviewed studies and present a comprehensive taxonomy of label-efficient learning methods in MIA. These methods are categorized into four labeling paradigms: no label, insufficient label, inexact label, and label refinement. For each category, we analyze representative techniques across imaging modalities and clinical applications, highlighting shared methodological principles and task-specific adaptations. We also examine the growing role of health foundation models (HFMs) in enabling label-efficient learning through large-scale pre-training and transfer learning, enhancing the use of limited annotations in downstream tasks. Finally, we identify current challenges and future directions to facilitate the translation of label-efficient learning from research promise to everyday clinical care.
arxiv情報
著者 | Cheng Jin,Zhengrui Guo,Yi Lin,Luyang Luo,Hao Chen |
発行日 | 2025-05-08 13:51:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google