Self-aware and Cross-sample Prototypical Learning for Semi-supervised Medical Image Segmentation

要約

整合性学習は、豊富な注釈なしデータを活用しながら、限られた注釈付きデータを効果的に利用できるため、半教師あり医療画像セグメンテーションにおいて重要な役割を果たします。
一貫性学習の有効性と効率性は、既存の研究では見落とされがちな予測の多様性とトレーニングの安定性によって課題となっています。
一方、トレーニング用のラベル付きデータの量が限られていると、擬似ラベルのクラス内のコンパクト性やクラス間の不一致を定式化するには不十分であることがよくわかります。
これらの問題に対処するために、複数の入力から得られるより広範囲の意味情報を利用することで、一貫性学習における予測の多様性を強化する自己認識かつサンプル間プロトタイプ学習手法 (SCP-Net) を提案します。
さらに、ラベルのないデータを利用して各クラス内の疑似ラベルのコンパクトさを向上させる自己認識一貫性学習方法を導入します。
さらに、二重損失再重み付け手法がサンプル間のプロトタイプ一貫性学習手法に統合されており、モデルの信頼性と安定性が向上しています。
ACDC データセットと PROMISE12 データセットに対する広範な実験により、SCP-Net が他の最先端の半教師ありセグメンテーション手法を上回り、限定された教師ありトレーニングと比較して大幅なパフォーマンス向上を達成することが検証されました。
私たちのコードはすぐに公開されます。

要約(オリジナル)

Consistency learning plays a crucial role in semi-supervised medical image segmentation as it enables the effective utilization of limited annotated data while leveraging the abundance of unannotated data. The effectiveness and efficiency of consistency learning are challenged by prediction diversity and training stability, which are often overlooked by existing studies. Meanwhile, the limited quantity of labeled data for training often proves inadequate for formulating intra-class compactness and inter-class discrepancy of pseudo labels. To address these issues, we propose a self-aware and cross-sample prototypical learning method (SCP-Net) to enhance the diversity of prediction in consistency learning by utilizing a broader range of semantic information derived from multiple inputs. Furthermore, we introduce a self-aware consistency learning method that exploits unlabeled data to improve the compactness of pseudo labels within each class. Moreover, a dual loss re-weighting method is integrated into the cross-sample prototypical consistency learning method to improve the reliability and stability of our model. Extensive experiments on ACDC dataset and PROMISE12 dataset validate that SCP-Net outperforms other state-of-the-art semi-supervised segmentation methods and achieves significant performance gains compared to the limited supervised training. Our code will come soon.

arxiv情報

著者 Zhenxi Zhang,Ran Ran,Chunna Tian,Heng Zhou,Xin Li,Fan Yang,Zhicheng Jiao
発行日 2023-05-25 16:22:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク