要約
高品質の疑似ラベルは、半教師付きセマンティック セグメンテーションに不可欠です。
一貫性の正則化と疑似ラベリング ベースの半教師ありメソッドは、マルチビュー入力からの疑似ラベルを使用して共同トレーニングを実行します。
ただし、このような共同トレーニング モデルは、トレーニング中にコンセンサスに早期に収束する傾向があるため、モデルは自己トレーニング モデルに退化します。
さらに、マルチビュー入力は、元の画像を摂動または拡張することによって生成されます。これにより、必然的にノイズが入力に導入され、信頼性の低い疑似ラベルが生成されます。
これらの問題に対処するために、信頼性の高い疑似ラベルを使用した半教師付きセマンティック セグメンテーションのための \textbf{U}ncertainty-guided Collaborative Mean-Teacher (UCMT) を提案します。
具体的には、UCMT は 2 つの主要コンポーネントで構成されています。1) モデルの不一致を奨励し、サブネットワーク間で共同トレーニングを実行するための共同平均教師 (CMT)、および 2) 入力画像を操作するための不確実性誘導領域混合 (UMIX)。
CMT の不確実性マップに追加し、CMT を促進して信頼性の高い疑似ラベルを生成します。
UMIX の強みと CMT を組み合わせることで、UCMT はモデルの不一致を保持し、共同トレーニング セグメンテーションの疑似ラベルの品質を向上させることができます。
2D および 3D モダリティを含む 4 つの公開医療画像データセットに関する広範な実験により、最先端技術に対する UCMT の優位性が実証されています。
コードは https://github.com/Senyh/UCMT で入手できます。
要約(オリジナル)
High-quality pseudo labels are essential for semi-supervised semantic segmentation. Consistency regularization and pseudo labeling-based semi-supervised methods perform co-training using the pseudo labels from multi-view inputs. However, such co-training models tend to converge early to a consensus during training, so that the models degenerate to the self-training ones. Besides, the multi-view inputs are generated by perturbing or augmenting the original images, which inevitably introduces noise into the input leading to low-confidence pseudo labels. To address these issues, we propose an \textbf{U}ncertainty-guided Collaborative Mean-Teacher (UCMT) for semi-supervised semantic segmentation with the high-confidence pseudo labels. Concretely, UCMT consists of two main components: 1) collaborative mean-teacher (CMT) for encouraging model disagreement and performing co-training between the sub-networks, and 2) uncertainty-guided region mix (UMIX) for manipulating the input images according to the uncertainty maps of CMT and facilitating CMT to produce high-confidence pseudo labels. Combining the strengths of UMIX with CMT, UCMT can retain model disagreement and enhance the quality of pseudo labels for the co-training segmentation. Extensive experiments on four public medical image datasets including 2D and 3D modalities demonstrate the superiority of UCMT over the state-of-the-art. Code is available at: https://github.com/Senyh/UCMT.
arxiv情報
著者 | Zhiqiang Shen,Peng Cao,Hua Yang,Xiaoli Liu,Jinzhu Yang,Osmar R. Zaiane |
発行日 | 2023-01-11 13:48:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google