Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular Schwannoma and Cochlea with Data Augmentation and Model Ensemble

要約

磁気共鳴画像 (MRI) は、前庭神経鞘腫と蝸牛を定量化するために広く使用されています。
最近、深層学習手法は、これらの構造をセグメント化するための最先端のパフォーマンスを示しています。
ただし、セグメンテーション モデルのトレーニングでは、ターゲット ドメインで手動のラベル付けが必要になる場合があり、これには費用と時間がかかります。
この問題を克服するために、ドメインの適応は、ソース ドメインからの情報を活用して正確なセグメンテーションを取得する効果的な方法であり、ターゲット ドメインで手動でラベルを付ける必要はありません。
この論文では、VS と蝸牛をセグメント化するための教師なし学習フレームワークを提案します。
私たちのフレームワークは、造影 T1 強調 (ceT1-w) MRI とそのラベルからの情報を活用し、ターゲット ドメインにラベルのない T2 強調 MRI のセグメンテーションを生成します。
最初にジェネレーターを適用して、画像から画像への変換を実現しました。
次に、さまざまなモデルのアンサンブルからの出力をアンサンブルして、最終的なセグメンテーションを取得します。
さまざまなサイト/スキャナーからの MRI に対処するために、トレーニング中にさまざまな「オンライン」増強を適用して、幾何学的な変動性と、画像の外観と品質の変動性をより適切に捉えました。
私たちの方法は簡単に構築でき、有望なセグメンテーションを生成します。検証セットの VS と蝸牛の平均 Dice スコアはそれぞれ 0.7930 と 0.7432 です。

要約(オリジナル)

Magnetic resonance images (MRIs) are widely used to quantify vestibular schwannoma and the cochlea. Recently, deep learning methods have shown state-of-the-art performance for segmenting these structures. However, training segmentation models may require manual labels in target domain, which is expensive and time-consuming. To overcome this problem, domain adaptation is an effective way to leverage information from source domain to obtain accurate segmentations without requiring manual labels in target domain. In this paper, we propose an unsupervised learning framework to segment the VS and cochlea. Our framework leverages information from contrast-enhanced T1-weighted (ceT1-w) MRIs and its labels, and produces segmentations for T2-weighted MRIs without any labels in the target domain. We first applied a generator to achieve image-to-image translation. Next, we ensemble outputs from an ensemble of different models to obtain final segmentations. To cope with MRIs from different sites/scanners, we applied various ‘online’ augmentations during training to better capture the geometric variability and the variability in image appearance and quality. Our method is easy to build and produces promising segmentations, with a mean Dice score of 0.7930 and 0.7432 for VS and cochlea respectively in the validation set.

arxiv情報

著者 Hao Li,Dewei Hu,Qibang Zhu,Kathleen E. Larson,Huahong Zhang,Ipek Oguz
発行日 2022-08-24 14:19:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク