Enhancing Data Diversity for Self-training Based Unsupervised Cross-modality Vestibular Schwannoma and Cochlea Segmentation

要約

磁気共鳴画像法による前庭神経鞘腫 (VS) と蝸牛の自動セグメンテーションにより、VS の治療計画が容易になります。
教師なしセグメンテーション手法は、時間と手間のかかる手動のラベル付けプロセスを必要とせずに有望な結果を示しています。
この論文では、教師なしドメイン適応設定での VS と蝸牛のセグメンテーションのアプローチを提示します。
具体的には、合成データの多様性を豊かにするために、クロスサイト クロスモダリティの対応のない画像変換戦略を最初に開発します。
次に、ルールベースのオフライン拡張技術を考案して、ドメインのギャップをさらに最小限に抑えます。
最後に、自己トレーニングによって強化された自己構成セグメンテーション フレームワークを採用して、最終結果を取得します。
CrossMoDA 2022 検証リーダーボードで、私たちの方法は、それぞれ 0.8178 $\pm$ 0.0803 および 0.8433 $\pm$ 0.0293 の平均 Dice スコアで、競争力のある VS および蝸牛セグメンテーション パフォーマンスを達成しました。

要約(オリジナル)

Automatic segmentation of vestibular schwannoma (VS) and cochlea from magnetic resonance imaging can facilitate VS treatment planning. Unsupervised segmentation methods have shown promising results without requiring the time-consuming and laborious manual labeling process. In this paper, we present an approach for VS and cochlea segmentation in an unsupervised domain adaptation setting. Specifically, we first develop a cross-site cross-modality unpaired image translation strategy to enrich the diversity of the synthesized data. Then, we devise a rule-based offline augmentation technique to further minimize the domain gap. Lastly, we adopt a self-configuring segmentation framework empowered by self-training to obtain the final results. On the CrossMoDA 2022 validation leaderboard, our method has achieved competitive VS and cochlea segmentation performance with mean Dice scores of 0.8178 $\pm$ 0.0803 and 0.8433 $\pm$ 0.0293, respectively.

arxiv情報

著者 Han Liu,Yubo Fan,Ipek Oguz,Benoit M. Dawant
発行日 2022-10-26 14:31:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク