M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With Annotation-Efficient Supervision

要約

通常、ディープ ニューラル ネットワークを使用した自動医用画像セグメンテーションには、かなりの教師ありトレーニングが必要です。
ただし、これらのモデルは、さまざまなイメージング モダリティ間でうまく一般化できません。
この欠点は、注釈付きデータの利用可能性が限られていることによって増幅され、モダリティ全体で大規模にそのような方法を展開することを妨げてきました。
これらの問題に対処するために、M-GenSeg を提案します。これは、ペアになっていないバイモーダル データセットでの正確なクロスモダリティ腫瘍セグメンテーションのための新しい半教師付きトレーニング戦略です。
画像レベルのラベルに基づいて、最初の教師なしの目的は、セグメンテーション タスクを含むバックグラウンドから腫瘍をほぐすことによって、モデルが病気から健康への変換を実行するように促します。
次に、画像モダリティ間の変換をモデルに教えると、ソース モダリティからのターゲット画像の合成が可能になり、ソース モダリティからのピクセル レベルの注釈を活用して、ターゲット モダリティ画像への一般化を強制できます。
パブリック BraTS 2020 チャレンジ データセットからの 4 つの異なるコントラスト シーケンスで構成される脳腫瘍セグメンテーション データセットのパフォーマンスを評価しました。
ソースモダリティと注釈なしのターゲットモダリティの両方で、Dice スコアの一貫した改善を報告します。
12の異なるドメイン適応実験すべてで、提案されたモデルは、最先端のドメイン適応ベースラインよりも明確な改善を示しており、ターゲットモダリティの絶対ダイスゲインは0.15に達しています。

要約(オリジナル)

Automated medical image segmentation using deep neural networks typically requires substantial supervised training. However, these models fail to generalize well across different imaging modalities. This shortcoming, amplified by the limited availability of annotated data, has been hampering the deployment of such methods at a larger scale across modalities. To address these issues, we propose M-GenSeg, a new semi-supervised training strategy for accurate cross-modality tumor segmentation on unpaired bi-modal datasets. Based on image-level labels, a first unsupervised objective encourages the model to perform diseased to healthy translation by disentangling tumors from the background, which encompasses the segmentation task. Then, teaching the model to translate between image modalities enables the synthesis of target images from a source modality, thus leveraging the pixel-level annotations from the source modality to enforce generalization to the target modality images. We evaluated the performance on a brain tumor segmentation datasets composed of four different contrast sequences from the public BraTS 2020 challenge dataset. We report consistent improvement in Dice scores on both source and unannotated target modalities. On all twelve distinct domain adaptation experiments, the proposed model shows a clear improvement over state-of-the-art domain-adaptive baselines, with absolute Dice gains on the target modality reaching 0.15.

arxiv情報

著者 Malo Alefsen de Boisredon d’Assier,Eugene Vorontsov,Samuel Kadoury
発行日 2022-12-14 15:19:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク