Shifting to Machine Supervision: Annotation-Efficient Semi and Self-Supervised Learning for Automatic Medical Image Segmentation and Classification

要約

臨床治療と研究の進歩は、大量の注釈付きデータに依存する教師あり学習技術によって制限されており、これは臨床専門家の何時間もの時間を必要とする高価な作業です。
この論文では、自己教師あり学習と半教師あり学習の使用を提案します。
これらの手法はラベルフリーの補助タスクを実行するため、完全に監視された手法と比較してマシン監視のスケールアップが容易です。
この論文では、自己および半監視学習の進歩を活用するためのパイプラインである S4MI (医用画像の自己監視および半監視) を提案します。
3 つの医療画像データセットでそれらをベンチマークし、分類とセグメンテーションの有効性を分析します。
10% アノテーションを使用した自己教師あり学習のこの進歩は、ほとんどのデータセットの分類において 100% アノテーションよりも優れたパフォーマンスを発揮しました。
半教師ありアプローチはセグメンテーションに好ましい結果をもたらし、3 つのデータセットすべてで使用するラベルが 50% 少ないため完全教師ありアプローチを上回りました。

要約(オリジナル)

Advancements in clinical treatment and research are limited by supervised learning techniques that rely on large amounts of annotated data, an expensive task requiring many hours of clinical specialists’ time. In this paper, we propose using self-supervised and semi-supervised learning. These techniques perform an auxiliary task that is label-free, scaling up machine-supervision is easier compared with fully-supervised techniques. This paper proposes S4MI (Self-Supervision and Semi-Supervision for Medical Imaging), our pipeline to leverage advances in self and semi-supervision learning. We benchmark them on three medical imaging datasets to analyze their efficacy for classification and segmentation. This advancement in self-supervised learning with 10% annotation performed better than 100% annotation for the classification of most datasets. The semi-supervised approach yielded favorable outcomes for segmentation, outperforming the fully-supervised approach by using 50% fewer labels in all three datasets.

arxiv情報

著者 Pranav Singh,Raviteja Chukkapalli,Shravan Chaudhari,Luoyao Chen,Mei Chen,Jinqian Pan,Craig Smuda,Jacopo Cirrone
発行日 2023-11-17 04:04:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク