MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation

要約

ドメイン シフトは、医療画像のセグメンテーションにおける長年の問題でした。
最近、教師なしドメイン適応 (UDA) メソッドは、ラベルの豊富なソース ドメインからラベルなしのターゲット ドメインに知識を抽出することにより、有望なクロス モダリティ セグメンテーション パフォーマンスを達成しました。
この作業では、2 つの主要な脳構造、すなわち前庭神経鞘腫 (VS) と高解像度 T2 画像上の蝸牛の自動セグメンテーションのためのマルチスケールの自己集合ベースの UDA フレームワークを提案します。
まず、ソース T1 からターゲット T2 への画像レベルのドメイン適応のために、セグメンテーションで強化された対照的な対応のない画像変換モジュールが設計されています。
次に、マルチスケールの深い監督と一貫性のある正則化が平均教師ネットワークに導入され、自己アンサンブル学習がドメイン ギャップをさらに埋めます。
さらに、ラベルの不足を軽減し、クロスモダリティ セグメンテーション パフォーマンスを向上させるために、セルフ トレーニングと強度増強技術が利用されます。
私たちの方法は、crossMoDA 2022 チャレンジの検証段階で、VS と蝸牛でそれぞれ 83.8% と 81.4% の平均 Dice スコアと 0.55 mm と 0.26 mm の平均非対称表面距離 (ASSD) で有望なセグメンテーション パフォーマンスを示しています。

要約(オリジナル)

Domain shift has been a long-standing issue for medical image segmentation. Recently, unsupervised domain adaptation (UDA) methods have achieved promising cross-modality segmentation performance by distilling knowledge from a label-rich source domain to a target domain without labels. In this work, we propose a multi-scale self-ensembling based UDA framework for automatic segmentation of two key brain structures i.e., Vestibular Schwannoma (VS) and Cochlea on high-resolution T2 images. First, a segmentation-enhanced contrastive unpaired image translation module is designed for image-level domain adaptation from source T1 to target T2. Next, multi-scale deep supervision and consistency regularization are introduced to a mean teacher network for self-ensemble learning to further close the domain gap. Furthermore, self-training and intensity augmentation techniques are utilized to mitigate label scarcity and boost cross-modality segmentation performance. Our method demonstrates promising segmentation performance with a mean Dice score of 83.8% and 81.4% and an average asymmetric surface distance (ASSD) of 0.55 mm and 0.26 mm for the VS and Cochlea, respectively in the validation phase of the crossMoDA 2022 challenge.

arxiv情報

著者 Ziyuan Zhao,Kaixin Xu,Huai Zhe Yeo,Xulei Yang,Cuntai Guan
発行日 2023-03-28 08:55:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク