要約
ディープラーニングは近年急速に成長し、幅広いアプリケーションで最先端のパフォーマンスを実現しています。
ただし、モデルのトレーニングには通常、高価で時間のかかる大量のラベル付きデータの収集が必要です。
これは、データが限られており、ラベルの取得に費用がかかる医療画像解析 (MIA) の範囲内で特に当てはまります。
したがって、ラベル効率の高い深層学習手法は、ラベル付きデータだけでなく、豊富なラベルなしデータや弱いラベル付きデータを包括的に使用するために開発されています。
この調査では、MIA におけるラベル効率的な学習戦略に関する最近の進歩の包括的な概要を提供するために、300 を超える最近の論文を広範囲に調査しました。
まずラベル効率的な学習の背景を示し、アプローチをさまざまなスキームに分類します。
次に、各スキームを通じて現在の最先端の手法を詳細に検証します。
具体的には、標準的な半教師あり、自己教師あり、およびマルチインスタンス学習スキームだけでなく、最近登場したアクティブなアノテーション効率的な学習戦略もカバーする詳細な調査を提供します。
さらに、この分野への包括的な貢献として、この調査は、調査された方法の共通点と独自の特徴を明らかにするだけでなく、この分野の現在の課題の詳細な分析を提示し、将来の研究の可能性のある道筋を示唆します。
要約(オリジナル)
Deep learning has seen rapid growth in recent years and achieved state-of-the-art performance in a wide range of applications. However, training models typically requires expensive and time-consuming collection of large quantities of labeled data. This is particularly true within the scope of medical imaging analysis (MIA), where data are limited and labels are expensive to be acquired. Thus, label-efficient deep learning methods are developed to make comprehensive use of the labeled data as well as the abundance of unlabeled and weak-labeled data. In this survey, we extensively investigated over 300 recent papers to provide a comprehensive overview of recent progress on label-efficient learning strategies in MIA. We first present the background of label-efficient learning and categorize the approaches into different schemes. Next, we examine the current state-of-the-art methods in detail through each scheme. Specifically, we provide an in-depth investigation, covering not only canonical semi-supervised, self-supervised, and multi-instance learning schemes, but also recently emerged active and annotation-efficient learning strategies. Moreover, as a comprehensive contribution to the field, this survey not only elucidates the commonalities and unique features of the surveyed methods but also presents a detailed analysis of the current challenges in the field and suggests potential avenues for future research.
arxiv情報
著者 | Cheng Jin,Zhengrui Guo,Yi Lin,Luyang Luo,Hao Chen |
発行日 | 2023-10-24 15:01:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google