要約
【タイトル】MagicNet:マジックキューブの分割と回復による半教師付きマルチオーガンセグメンテーション
【要約】
– 半教師付きマルチオーガンセグメンテーションのための新しい師生モデルを提案する。
– マジックネットは、固定された相対位置と異なるオーガンのサイズが、マルチオーガンCTスキャンが描かれた分布情報を提供できるという重要な視点から始める。
– したがって、先行解剖学を教示することにより、半教師あり画像と未ラベル化画像との不一致を減らし、データ拡張を導く。
– マジックネットは、MAGIC-cubeと呼ばれるCTボリュームをマジックキューブとして扱い、N$^3$-キューブの分割と回復処理がマジックキューブをプレーするルールに一致するため、その名前がついた。
– MACTデータセットでは、ラベルされた10%の画像で+7%のDSC改善を示し、半教師有り医療画像セグメンテーションの最新の状態を大幅に上回ることがわかった。
要約(オリジナル)
We propose a novel teacher-student model for semi-supervised multi-organ segmentation. In teacher-student model, data augmentation is usually adopted on unlabeled data to regularize the consistent training between teacher and student. We start from a key perspective that fixed relative locations and variable sizes of different organs can provide distribution information where a multi-organ CT scan is drawn. Thus, we treat the prior anatomy as a strong tool to guide the data augmentation and reduce the mismatch between labeled and unlabeled images for semi-supervised learning. More specifically, we propose a data augmentation strategy based on partition-and-recovery N$^3$ cubes cross- and within- labeled and unlabeled images. Our strategy encourages unlabeled images to learn organ semantics in relative locations from the labeled images (cross-branch) and enhances the learning ability for small organs (within-branch). For within-branch, we further propose to refine the quality of pseudo labels by blending the learned representations from small cubes to incorporate local attributes. Our method is termed as MagicNet, since it treats the CT volume as a magic-cube and N$^3$-cube partition-and-recovery process matches with the rule of playing a magic-cube. Extensive experiments on two public CT multi-organ datasets demonstrate the effectiveness of MagicNet, and noticeably outperforms state-of-the-art semi-supervised medical image segmentation approaches, with +7% DSC improvement on MACT dataset with 10% labeled images. Code is available at https://github.com/DeepMed-Lab-ECNU/MagicNet.
arxiv情報
著者 | Duowen Chen,Yunhao Bai,Wei Shen,Qingli Li,Lequan Yu,Yan Wang |
発行日 | 2023-04-06 06:16:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI