要約
半教師あり医療画像セグメンテーションは、限られたラベル付きデータと豊富なラベルなしデータを使用したモデルのトレーニングに有望であることが示されています。
しかし、最先端の方法は、教師なしの意味論的情報の潜在的に貴重な情報源、つまり画像ボリューム間の空間位置合わせ変換を無視しています。
これに対処するために、登録情報を組み込んだ対照的なクロスティーチングフレームワークである CCT-R を提案します。
ボリューム ペア間の登録で利用可能なセマンティック情報を活用するために、CCT-R には、Registration Supervision Loss (RSL) と Registration-Enhanced Positive Sampling (REPS) という 2 つの提案されたモジュールが組み込まれています。
RSL は、ラベル付きボリュームとラベルなしボリュームのペア間の変換から得られるセグメンテーションの知識を活用し、疑似ラベルの追加ソースを提供します。
REPS は、レジストレーション変換を使用してボリューム全体で解剖学的に対応する陽性を特定することにより、対比学習を強化します。
2 つの困難な医療セグメンテーション ベンチマークに関する実験結果は、わずか 1 件のラベル付き症例で、さまざまな半教師付き設定における CCT-R の有効性と優位性を実証しています。
私たちのコードは https://github.com/kathyliu579/ContrastiveCross-teachingWithRegistration で入手できます。
要約(オリジナル)
Semi-supervised medical image segmentation has shown promise in training models with limited labeled data and abundant unlabeled data. However, state-of-the-art methods ignore a potentially valuable source of unsupervised semantic information — spatial registration transforms between image volumes. To address this, we propose CCT-R, a contrastive cross-teaching framework incorporating registration information. To leverage the semantic information available in registrations between volume pairs, CCT-R incorporates two proposed modules: Registration Supervision Loss (RSL) and Registration-Enhanced Positive Sampling (REPS). The RSL leverages segmentation knowledge derived from transforms between labeled and unlabeled volume pairs, providing an additional source of pseudo-labels. REPS enhances contrastive learning by identifying anatomically-corresponding positives across volumes using registration transforms. Experimental results on two challenging medical segmentation benchmarks demonstrate the effectiveness and superiority of CCT-R across various semi-supervised settings, with as few as one labeled case. Our code is available at https://github.com/kathyliu579/ContrastiveCross-teachingWithRegistration.
arxiv情報
著者 | Qianying Liu,Paul Henderson,Xiao Gu,Hang Dai,Fani Deligianni |
発行日 | 2024-09-16 15:52:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google