Treasure in Distribution: A Domain Randomization based Multi-Source Domain Generalization for 2D Medical Image Segmentation

要約

近年、医療画像のセグメンテーションにおける畳み込みニューラル ネットワーク (CNN) の大成功が見られていますが、医療画像の画質のばらつきが非常に大きいことによって引き起こされるドメイン シフトの問題が、現実世界の臨床アプリケーションへの CNN の展開を妨げています。
ドメイン一般化 (DG) 手法は、強力な一般化能力を持つソース ドメイン上で堅牢なモデルをトレーニングすることで、この問題に対処することを目的としています。
これまで、特徴空間ドメインのランダム化に基づく多くの DG 手法が提案されてきましたが、特徴スタイルの制限された順序付けされていない検索空間に問題がありました。
本稿では、Treasure in Distribution (TriD) と呼ばれるマルチソース DG 手法を提案します。この手法は、一様分布からランダムにサンプリングすることで、これまでにない探索空間を構築し、ロバスト性の高いモデルを取得します。
ドメイン不変表現を明示的に学習するために、TriD でスタイル混合戦略をさらに考案しました。これは、チャネルごとに拡張された統計と元の統計をランダムに混合することによって特徴スタイルを混合し、他の DG 手法に拡張できます。
異なるモダリティを使用した 2 つの医療セグメンテーション タスクに関する広範な実験により、当社の TriD が目に見えないターゲット領域データに対して優れた汎化パフォーマンスを達成することが実証されました。
コードは https://github.com/Chen-Ziyang/TriD で入手できます。

要約(オリジナル)

Although recent years have witnessed the great success of convolutional neural networks (CNNs) in medical image segmentation, the domain shift issue caused by the highly variable image quality of medical images hinders the deployment of CNNs in real-world clinical applications. Domain generalization (DG) methods aim to address this issue by training a robust model on the source domain, which has a strong generalization ability. Previously, many DG methods based on feature-space domain randomization have been proposed, which, however, suffer from the limited and unordered search space of feature styles. In this paper, we propose a multi-source DG method called Treasure in Distribution (TriD), which constructs an unprecedented search space to obtain the model with strong robustness by randomly sampling from a uniform distribution. To learn the domain-invariant representations explicitly, we further devise a style-mixing strategy in our TriD, which mixes the feature styles by randomly mixing the augmented and original statistics along the channel wise and can be extended to other DG methods. Extensive experiments on two medical segmentation tasks with different modalities demonstrate that our TriD achieves superior generalization performance on unseen target-domain data. Code is available at https://github.com/Chen-Ziyang/TriD.

arxiv情報

著者 Ziyang Chen,Yongsheng Pan,Yiwen Ye,Hengfei Cui,Yong Xia
発行日 2023-05-31 15:33:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク