要約
対照学習は、ラベル付けされたデータへのアクセスが制限されている多くのアプリケーションで役立つことが証明されています。
心臓の超音波画像の心臓構造などの大量のデータに臨床専門家が手動で注釈を付けることは困難であるため、注釈付きデータの欠如は、医療画像のセグメンテーションで特に問題になります。
本論文では、限られた注釈付き画像が存在する場合に心エコー検査から左心室をセグメント化するための自己教師あり対照学習法を提案します。
さらに、2つのよく知られたセグメンテーションネットワーク、UNetとDeepLabV3に対する対照的な事前トレーニングの効果を研究します。
私たちの結果は、特に注釈付きデータが不足している場合に、対照的な事前トレーニングが左心室セグメンテーションのパフォーマンスを改善するのに役立つことを示しています。
モデルを自己教師ありの方法でトレーニングした後、データのわずか5 \%を微調整すると、最先端の完全教師ありアルゴリズムに匹敵する結果を達成する方法を示します。
私たちのソリューションは、大規模な公開データセット(EchoNet-Dynamic)で現在公開されているものよりも優れており、Diceスコア0.9252を達成していることを示しています。
また、別の小さなデータセット(CAMUS)でのソリューションのパフォーマンスを比較して、提案されたソリューションの一般化可能性を示します。
コードは(https://github.com/BioMedIA-MBZUAI/contrastive-echo)で入手できます。
要約(オリジナル)
Contrastive learning has proven useful in many applications where access to labelled data is limited. The lack of annotated data is particularly problematic in medical image segmentation as it is difficult to have clinical experts manually annotate large volumes of data such as cardiac structures in ultrasound images of the heart. In this paper, We propose a self supervised contrastive learning method to segment the left ventricle from echocardiography when limited annotated images exist. Furthermore, we study the effect of contrastive pretraining on two well-known segmentation networks, UNet and DeepLabV3. Our results show that contrastive pretraining helps improve the performance on left ventricle segmentation, particularly when annotated data is scarce. We show how to achieve comparable results to state-of-the-art fully supervised algorithms when we train our models in a self-supervised fashion followed by fine-tuning on just 5\% of the data. We show that our solution outperforms what is currently published on a large public dataset (EchoNet-Dynamic) achieving a Dice score of 0.9252. We also compare the performance of our solution on another smaller dataset (CAMUS) to demonstrate the generalizability of our proposed solution. The code is available at (https://github.com/BioMedIA-MBZUAI/contrastive-echo).
arxiv情報
著者 | Mohamed Saeed,Rand Muhtaseb,Mohammad Yaqub |
発行日 | 2022-07-14 16:57:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google