要約
深層畳み込みニューラルネットワークは、医用画像のセグメンテーションに広く使用されているが、学習に多くのラベル付き画像を必要とする。三次元医用画像の注釈付けは、時間とコストのかかるプロセスである。この制限を克服するために、我々は新しい半教師付きセグメンテーション手法を提案する。我々のアプローチでは、教師モデルからラベル付けされていないボクセルの信頼できる予測を特定するために、予測の不確実性を評価する。これらのボクセルは生徒モデルを訓練するための擬似ラベルとして機能する。教師モデルが信頼性の低い予測を行うボクセルでは、ラベル付けされた画像からの参照ボクセルを用いたボクセルごとの埋め込み対応に基づいて擬似ラベル付けが行われる。我々はこの手法をCT画像における腰骨セグメンテーションの自動化に適用し、わずか4枚のCTスキャンで注目すべき結果を得た。提案手法は、95パーセンタイル(HD95)が3.30、IoUが0.929のHausdorff距離をもたらし、HD95(4.07)とIoU(0.927)を達成した既存の手法を凌駕した。
要約(オリジナル)
Deep convolutional neural networks are widely used in medical image segmentation but require many labeled images for training. Annotating three-dimensional medical images is a time-consuming and costly process. To overcome this limitation, we propose a novel semi-supervised segmentation method that leverages mostly unlabeled images and a small set of labeled images in training. Our approach involves assessing prediction uncertainty to identify reliable predictions on unlabeled voxels from the teacher model. These voxels serve as pseudo-labels for training the student model. In voxels where the teacher model produces unreliable predictions, pseudo-labeling is carried out based on voxel-wise embedding correspondence using reference voxels from labeled images. We applied this method to automate hip bone segmentation in CT images, achieving notable results with just 4 CT scans. The proposed approach yielded a Hausdorff distance with 95th percentile (HD95) of 3.30 and IoU of 0.929, surpassing existing methods achieving HD95 (4.07) and IoU (0.927) at their best.
arxiv情報
著者 | Weiyi Xie,Nathalie Willems,Nikolas Lessmann,Tom Gibbons,Daniele De Massari |
発行日 | 2024-07-05 16:49:21+00:00 |
arxivサイト | arxiv_id(pdf) |