Unsupervised Domain Adaptation for Cardiac Segmentation: Towards Structure Mutual Information Maximization

要約

教師なしドメイン適応アプローチは、最近、さまざまな医療画像セグメンテーションタスクで成功しています。
報告された作品は、ドメイン不変の機能を調整し、ドメイン固有の不一致を最小限に抑えることで、ドメインシフトの問題に取り組むことがよくあります。
この戦略は、特定のドメイン間および異なるドメイン間の違いがわずかな場合にうまく機能します。
ただし、多様なイメージングモダリティでこれらのモデルの一般化能力は重要な課題のままです。
この論文では、コンパクトな損失関数の下限を備えた心臓セグメンテーションのための教師なしドメイン適応フレームワークであるUDA-VAE++を紹介します。
この新しい下限を推定するために、グローバル推定量、ローカル推定量、および再構成タスクとセグメンテーションタスク間の相互情報量を最大化するための事前情報マッチング推定量を備えた新しい構造相互情報量推定(SMIE)ブロックを開発します。
具体的には、低解像度の潜在空間から高解像度の潜在空間への情報の流れと分散の補正を可能にする、新しい順次再パラメータ化スキームを設計します。
ベンチマーク心臓セグメンテーションデータセットに関する包括的な実験は、私たちのモデルが以前の最先端技術を定性的および定量的に上回っていることを示しています。
コードはhttps://github.com/LOUEY233/Toward-Mutual-Information}{https://github.com/LOUEY233/Toward-Mutual-Informationで入手できます。

要約(オリジナル)

Unsupervised domain adaptation approaches have recently succeeded in various medical image segmentation tasks. The reported works often tackle the domain shift problem by aligning the domain-invariant features and minimizing the domain-specific discrepancies. That strategy works well when the difference between a specific domain and between different domains is slight. However, the generalization ability of these models on diverse imaging modalities remains a significant challenge. This paper introduces UDA-VAE++, an unsupervised domain adaptation framework for cardiac segmentation with a compact loss function lower bound. To estimate this new lower bound, we develop a novel Structure Mutual Information Estimation (SMIE) block with a global estimator, a local estimator, and a prior information matching estimator to maximize the mutual information between the reconstruction and segmentation tasks. Specifically, we design a novel sequential reparameterization scheme that enables information flow and variance correction from the low-resolution latent space to the high-resolution latent space. Comprehensive experiments on benchmark cardiac segmentation datasets demonstrate that our model outperforms previous state-of-the-art qualitatively and quantitatively. The code is available at https://github.com/LOUEY233/Toward-Mutual-Information}{https://github.com/LOUEY233/Toward-Mutual-Information

arxiv情報

著者 Changjie Lu,Shen Zheng,Gaurav Gupta
発行日 2022-06-24 15:07:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク