要約
現在の 3D 半教師ありセグメンテーション手法は、コンテキスト情報の考慮が制限されていること、教師なしデータを効果的に使用するための信頼できる疑似ラベルを生成できないことなど、重大な課題に直面しています。
これらの課題に対処するために、それらの間の不一致を調査して利用し、最終的に誤った予測結果を修正するように設計された 2 つの異なるサブネットワークを導入します。
より具体的には、予測が一致しない領域を特定し、対象を絞った検証トレーニング プロセスを開始します。
この手順により、サブネットワークの予測が戦略的に微調整および調和され、コンテキスト情報の利用が強化されます。
さらに、ネットワークの表現能力を適応的に微調整し、予測の不確実性を低減するために、自己教師あり対比学習パラダイムを採用しています。
このために、ネットワークの信頼度を使用して、信頼できる予測と信頼できない予測を区別します。
次に、信頼性の低い予測を効果的に最小限に抑えるためにモデルがトレーニングされます。
臨床 MRI および CT スキャンから得られた臓器セグメンテーションに関する当社の実験結果は、最先端の方法と比較した場合、当社のアプローチの有効性を実証しています。
コードベースは \href{https://github.com/xmindflow/SSL-contrastive}{GitHub} からアクセスできます。
要約(オリジナル)
Current 3D semi-supervised segmentation methods face significant challenges such as limited consideration of contextual information and the inability to generate reliable pseudo-labels for effective unsupervised data use. To address these challenges, we introduce two distinct subnetworks designed to explore and exploit the discrepancies between them, ultimately correcting the erroneous prediction results. More specifically, we identify regions of inconsistent predictions and initiate a targeted verification training process. This procedure strategically fine-tunes and harmonizes the predictions of the subnetworks, leading to enhanced utilization of contextual information. Furthermore, to adaptively fine-tune the network’s representational capacity and reduce prediction uncertainty, we employ a self-supervised contrastive learning paradigm. For this, we use the network’s confidence to distinguish between reliable and unreliable predictions. The model is then trained to effectively minimize unreliable predictions. Our experimental results for organ segmentation, obtained from clinical MRI and CT scans, demonstrate the effectiveness of our approach when compared to state-of-the-art methods. The codebase is accessible on \href{https://github.com/xmindflow/SSL-contrastive}{GitHub}.
arxiv情報
著者 | Sanaz Karimijafarbigloo,Reza Azad,Yury Velichko,Ulas Bagci,Dorit Merhof |
発行日 | 2023-11-21 14:03:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google