要約
ドメイン アダプテーション (DA) は、最近、医用画像コミュニティで強い関心を集めています。
画像セグメンテーションのために多種多様な DA 手法が提案されていますが、これらの手法のほとんどは、プライベート データセットまたは公開されている小規模なデータセットで検証されています。
さらに、これらのデータセットは主に単一クラスの問題に対処していました。
これらの制限に取り組むために、クロス モダリティ ドメイン アダプテーション (crossMoDA) チャレンジが、第 24 回医用画像コンピューティングおよびコンピューター支援介入に関する国際会議 (MICCAI 2021) と併せて組織されました。
CrossMoDA は、教師なしクロスモダリティ DA のための最初の大規模なマルチクラス ベンチマークです。
この課題の目標は、前庭神経鞘腫 (VS) のフォローアップと治療計画に関与する 2 つの主要な脳構造である VS と蝸牛をセグメント化することです。
現在、VS 患者の診断とサーベイランスは、造影 T1 (ceT1) MRI を使用して行われています。
ただし、高解像度 T2 (hrT2) MRI などの非造影シーケンスを使用することに関心が高まっています。
したがって、教師なしのクロスモダリティ セグメンテーション ベンチマークを作成しました。
トレーニング セットは、注釈付き ceT1 (N=105) とペアになっていない注釈なし hrT2 (N=105) を提供します。
目的は、テスト セット (N = 137) で提供される hrT2 で片側 VS および両側蝸牛セグメンテーションを自動的に実行することでした。
合計 16 チームが評価フェーズのためにアルゴリズムを提出しました。
上位のチームが到達したパフォーマンスのレベルは非常に高く (ダイスの中央値 – VS:88.4%; 蝸牛:85.7%)、完全な監視に近い (ダイスの中央値 – VS:92.5%; 蝸牛:87.7%)。
最も優れた方法はすべて、画像から画像への変換アプローチを利用して、ソース ドメインの画像を疑似ターゲット ドメインの画像に変換しました。
次に、これらの生成された画像とソース画像に提供された手動の注釈を使用して、セグメンテーション ネットワークがトレーニングされました。
要約(オリジナル)
Domain Adaptation (DA) has recently raised strong interests in the medical imaging community. While a large variety of DA techniques has been proposed for image segmentation, most of these techniques have been validated either on private datasets or on small publicly available datasets. Moreover, these datasets mostly addressed single-class problems. To tackle these limitations, the Cross-Modality Domain Adaptation (crossMoDA) challenge was organised in conjunction with the 24th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2021). CrossMoDA is the first large and multi-class benchmark for unsupervised cross-modality DA. The challenge’s goal is to segment two key brain structures involved in the follow-up and treatment planning of vestibular schwannoma (VS): the VS and the cochleas. Currently, the diagnosis and surveillance in patients with VS are performed using contrast-enhanced T1 (ceT1) MRI. However, there is growing interest in using non-contrast sequences such as high-resolution T2 (hrT2) MRI. Therefore, we created an unsupervised cross-modality segmentation benchmark. The training set provides annotated ceT1 (N=105) and unpaired non-annotated hrT2 (N=105). The aim was to automatically perform unilateral VS and bilateral cochlea segmentation on hrT2 as provided in the testing set (N=137). A total of 16 teams submitted their algorithm for the evaluation phase. The level of performance reached by the top-performing teams is strikingly high (best median Dice – VS:88.4%; Cochleas:85.7%) and close to full supervision (median Dice – VS:92.5%; Cochleas:87.7%). All top-performing methods made use of an image-to-image translation approach to transform the source-domain images into pseudo-target-domain images. A segmentation network was then trained using these generated images and the manual annotations provided for the source image.
arxiv情報
著者 | Reuben Dorent,Aaron Kujawa,Marina Ivory,Spyridon Bakas,Nicola Rieke,Samuel Joutard,Ben Glocker,Jorge Cardoso,Marc Modat,Kayhan Batmanghelich,Arseniy Belkov,Maria Baldeon Calisto,Jae Won Choi,Benoit M. Dawant,Hexin Dong,Sergio Escalera,Yubo Fan,Lasse Hansen,Mattias P. Heinrich,Smriti Joshi,Victoriya Kashtanova,Hyeon Gyu Kim,Satoshi Kondo,Christian N. Kruse,Susana K. Lai-Yuen,Hao Li,Han Liu,Buntheng Ly,Ipek Oguz,Hyungseob Shin,Boris Shirokikh,Zixian Su,Guotai Wang,Jianghao Wu,Yanwu Xu,Kai Yao,Li Zhang,Sebastien Ourselin,Jonathan Shapey,Tom Vercauteren |
発行日 | 2022-12-14 15:09:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google