Causality-inspired Single-source Domain Generalization for Medical Image Segmentation

要約

【タイトル】医療画像セグメンテーションのための因果推論に基づく単一ソースドメイン汎化

【要約】
– 機械学習モデルは、しばしばドメインのシフト問題に苦しんでおり、1つのソースドメインでトレーニングされたモデルが他の未知のドメインでうまく汎用化されないことがあります。
– 本研究では、単一ソースドメインからのトレーニングデータのみが利用可能な、未知のドメインに強い深層ネットワークをトレーニングする単一ソースドメイン汎化問題を医療画像セグメンテーションのコンテキストで調査しています。
– このシナリオでは、ドメインシフトは主に異なる取得プロセスによって引き起こされます。
– 我々は因果推論に基づいたシンプルなデータ拡張方法を提案しており、これによりセグメンテーションモデルを合成ドメインシフトトレーニング例にさらすことができます。
– 具体的には、1)深層モデルが画像の強度やテクスチャの不一致に強いようにするために、ランダム重み浅いネットワークのファミリーを使用して、多様な外観変換を使ってトレーニング画像を拡張します。
– 2)さらに、画像内のオブジェクト間の偶発的相関がドメインの頑健性に悪影響を与えることを示します。
– 提案手法は、クロスモダリティ(CT-MRI)腹部画像セグメンテーション、クロスシークエンス(bSSFP-LGE)心臓MRIセグメンテーション、クロスセンタープロステートMRIセグメンテーションの3つのクロスドメインセグメンテーションタスクで検証されました。
– 提案手法は、未知のドメインでテストされたときに競合手法と比較して一貫した性能向上を示しました。

要約(オリジナル)

Deep learning models usually suffer from domain shift issues, where models trained on one source domain do not generalize well to other unseen domains. In this work, we investigate the single-source domain generalization problem: training a deep network that is robust to unseen domains, under the condition that training data is only available from one source domain, which is common in medical imaging applications. We tackle this problem in the context of cross-domain medical image segmentation. Under this scenario, domain shifts are mainly caused by different acquisition processes. We propose a simple causality-inspired data augmentation approach to expose a segmentation model to synthesized domain-shifted training examples. Specifically, 1) to make the deep model robust to discrepancies in image intensities and textures, we employ a family of randomly-weighted shallow networks. They augment training images using diverse appearance transformations. 2) Further we show that spurious correlations among objects in an image are detrimental to domain robustness. These correlations might be taken by the network as domain-specific clues for making predictions, and they may break on unseen domains. We remove these spurious correlations via causal intervention. This is achieved by resampling the appearances of potentially correlated objects independently. The proposed approach is validated on three cross-domain segmentation tasks: cross-modality (CT-MRI) abdominal image segmentation, cross-sequence (bSSFP-LGE) cardiac MRI segmentation, and cross-center prostate MRI segmentation. The proposed approach yields consistent performance gains compared with competitive methods when tested on unseen domains.

arxiv情報

著者 Cheng Ouyang,Chen Chen,Surui Li,Zeju Li,Chen Qin,Wenjia Bai,Daniel Rueckert
発行日 2023-04-21 09:05:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク