Learning Site-specific Styles for Multi-institutional Unsupervised Cross-modality Domain Adaptation

要約

医用画像解析における教師なしクロスモダリティドメイン適応は困難な作業ですが、ソースドメインとターゲットドメインのデータが複数の機関から収集される場合、さらに困難になります。
この論文では、crossMoDA 2023 の課題に対する複数機関の教師なしドメイン適応に取り組むソリューションを紹介します。
まず、ペアになっていない画像変換を実行して、ソース ドメイン画像をターゲット ドメインに変換します。そこで、制御可能なサイト固有のスタイルを持つ合成ターゲット ドメイン画像を生成する動的ネットワークを設計します。
その後、合成画像を使用してセグメンテーション モデルをトレーニングし、自己トレーニングによってドメイン ギャップをさらに削減します。
私たちのソリューションは、この課題の検証段階とテスト段階の両方で 1 位を獲得しました。
コード リポジトリは、https://github.com/MedICL-VU/crossmoda2023 で公開されています。

要約(オリジナル)

Unsupervised cross-modality domain adaptation is a challenging task in medical image analysis, and it becomes more challenging when source and target domain data are collected from multiple institutions. In this paper, we present our solution to tackle the multi-institutional unsupervised domain adaptation for the crossMoDA 2023 challenge. First, we perform unpaired image translation to translate the source domain images to the target domain, where we design a dynamic network to generate synthetic target domain images with controllable, site-specific styles. Afterwards, we train a segmentation model using the synthetic images and further reduce the domain gap by self-training. Our solution achieved the 1st place during both the validation and testing phases of the challenge. The code repository is publicly available at https://github.com/MedICL-VU/crossmoda2023.

arxiv情報

著者 Han Liu,Yubo Fan,Zhoubing Xu,Benoit M. Dawant,Ipek Oguz
発行日 2023-11-22 11:38:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク