MDD-UNet: Domain Adaptation for Medical Image Segmentation with Theoretical Guarantees, a Proof of Concept

要約

現在の最先端の画像セグメンテーション技術は、多くの場合、スキップ接続を備えた U 字型のエンコーダ/デコーダ ネットワークである U-Net アーキテクチャに基づいています。
このアーキテクチャは強力なパフォーマンスにもかかわらず、トレーニングに使用されたデータとは異なる特性を持つデータに対して使用すると、パフォーマンスが良くないことがよくあります。
ドメイン シフトが存在する場合のパフォーマンスを向上させるための多くの技術が開発されていますが、通常はドメイン適応理論との関連性が緩いだけです。
この研究では、MDD-UNet と呼ばれるマージン格差不一致 [1] に基づく理論的保証を備えた U-Net 用の教師なしドメイン適応フレームワークを提案します。
海馬セグメンテーションのタスクに関して提案された手法を評価したところ、MDD-UNet はターゲット ドメインのラベルに関する知識がなくてもドメイン不変の特徴を学習できることがわかりました。
MDD-UNet は、データセットの 12 の組み合わせのうち 11 の組み合わせで、標準の U-Net よりもパフォーマンスが向上します。
この研究は、最新の機能拡張を行わずに標準形式の U-Net の改善を実証することで概念実証として機能し、方法論と実践の両方の観点から、非常に大きな仮説空間を持つモデルのドメイン適応を研究する新しい道を開きます。
コードは https://github.com/asbjrnmunk/mdd-unet で入手できます。

要約(オリジナル)

The current state-of-the art techniques for image segmentation are often based on U-Net architectures, a U-shaped encoder-decoder networks with skip connections. Despite the powerful performance, the architecture often does not perform well when used on data which has different characteristics than the data it was trained on. Many techniques for improving performance in the presence of domain shift have been developed, however typically only have loose connections to the theory of domain adaption. In this work, we propose an unsupervised domain adaptation framework for U-Nets with theoretical guarantees based on the Margin Disparity Discrepancy [1] called the MDD-UNet. We evaluate the proposed technique on the task of hippocampus segmentation, and find that the MDD-UNet is able to learn features which are domain-invariant with no knowledge about the labels in the target domain. The MDD-UNet improves performance over the standard U-Net on 11 out of 12 combinations of datasets. This work serves as a proof of concept by demonstrating an improvement on the U-Net in it’s standard form without modern enhancements, which opens up a new avenue of studying domain adaptation for models with very large hypothesis spaces from both methodological and practical perspectives. Code is available at https://github.com/asbjrnmunk/mdd-unet.

arxiv情報

著者 Asbjørn Munk,Ao Ma,Mads Nielsen
発行日 2023-12-19 15:30:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク