要約
実際のシナリオではピクセルレベルの注釈が不足しているため、半教師あり学習方法が医療画像セグメンテーションタスクで検討されてきました。
プロトタイプアラインメントベースの整合性制約は、ラベルのないデータの有用な情報を探索するための直感的でもっともらしい解決策です。
この論文では、ラベルのないデータをより有効に活用するために、相互および自己プロトタイプアライメント(MSPA)フレームワークを提案します。
具体的には、相互プロトタイプアラインメントは、ラベル付きデータとラベルなしデータ間の情報の相互作用を強化します。
相互プロトタイプアラインメントは、ラベルのないデータとラベルの付いたデータの間に逆方向に2つの一貫性の制約を課します。これにより、ラベルのないデータに一貫した埋め込みとモデルの識別が可能になります。
提案された自己プロトタイプアラインメントは、ラベルなし画像内のより安定した領域ごとの特徴を学習します。これにより、特徴空間でのクラス内コンパクト性とクラス間分離が強化され、半教師ありセグメンテーションの分類マージンが最適化されます。
3つの医療データセットに関する広範な実験結果は、少量のラベル付きデータで、MSPAがラベルなしデータを活用することで大幅な改善を達成することを示しています。
また、私たちの方法は、3つのデータセットすべてで7つの最先端の半教師ありセグメンテーション方法よりも優れています。
要約(オリジナル)
Semi-supervised learning methods have been explored in medical image segmentation tasks due to the scarcity of pixel-level annotation in the real scenario. Proto-type alignment based consistency constraint is an intuitional and plausible solu-tion to explore the useful information in the unlabeled data. In this paper, we propose a mutual- and self- prototype alignment (MSPA) framework to better utilize the unlabeled data. In specific, mutual-prototype alignment enhances the information interaction between labeled and unlabeled data. The mutual-prototype alignment imposes two consistency constraints in reverse directions between the unlabeled and labeled data, which enables the consistent embedding and model discriminability on unlabeled data. The proposed self-prototype alignment learns more stable region-wise features within unlabeled images, which optimizes the classification margin in semi-supervised segmentation by boosting the intra-class compactness and inter-class separation on the feature space. Extensive experimental results on three medical datasets demonstrate that with a small amount of labeled data, MSPA achieves large improvements by leveraging the unlabeled data. Our method also outperforms seven state-of-the-art semi-supervised segmentation methods on all three datasets.
arxiv情報
著者 | Zhenxi Zhang,Chunna Tian,Zhicheng Jiao |
発行日 | 2022-06-03 02:59:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google