Co-training with High-Confidence Pseudo Labels for Semi-supervised Medical Image Segmentation

要約

一貫性の正則化と擬似ラベルベースの半教師ありメソッドは、マルチビュー入力からの擬似ラベルを使用して共同トレーニングを実行します。
ただし、このような共同トレーニング モデルは早期にコンセンサスに収束し、自己トレーニング モデルに退化する傾向があり、トレーニング中に摂動された入力から信頼性の低い疑似ラベルを生成します。
これらの問題に対処するために、信頼性の高い疑似ラベルを使用した半教師ありセマンティック セグメンテーションのための不確実性ガイド付き協調平均教師 (UCMT) を提案します。
具体的には、UCMT は 2 つの主要コンポーネントで構成されます。1) モデルの不一致を促進し、サブネットワーク間で共同トレーニングを実行するための協調平均教師 (CMT)、2) に従って入力画像を操作するための不確実性誘導領域ミックス (UMIX)
CMT の不確実性マップに適用し、CMT による信頼性の高い疑似ラベルの生成を容易にします。
UMIX と CMT の長所を組み合わせることで、UCMT はモデルの不一致を保持し、共トレーニング セグメンテーションの疑似ラベルの品質を向上させることができます。
2D および 3D モダリティを含む 4 つの公開医療画像データセットに関する広範な実験により、最先端技術に対する UCMT の優位性が実証されました。
コードは https://github.com/Senyh/UCMT から入手できます。

要約(オリジナル)

Consistency regularization and pseudo labeling-based semi-supervised methods perform co-training using the pseudo labels from multi-view inputs. However, such co-training models tend to converge early to a consensus, degenerating to the self-training ones, and produce low-confidence pseudo labels from the perturbed inputs during training. To address these issues, we propose an Uncertainty-guided Collaborative Mean-Teacher (UCMT) for semi-supervised semantic segmentation with the high-confidence pseudo labels. Concretely, UCMT consists of two main components: 1) collaborative mean-teacher (CMT) for encouraging model disagreement and performing co-training between the sub-networks, and 2) uncertainty-guided region mix (UMIX) for manipulating the input images according to the uncertainty maps of CMT and facilitating CMT to produce high-confidence pseudo labels. Combining the strengths of UMIX with CMT, UCMT can retain model disagreement and enhance the quality of pseudo labels for the co-training segmentation. Extensive experiments on four public medical image datasets including 2D and 3D modalities demonstrate the superiority of UCMT over the state-of-the-art. Code is available at: https://github.com/Senyh/UCMT.

arxiv情報

著者 Zhiqiang Shen,Peng Cao,Hua Yang,Xiaoli Liu,Jinzhu Yang,Osmar R. Zaiane
発行日 2023-05-26 15:14:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク