Contrastive Image Synthesis and Self-supervised Feature Adaptation for Cross-Modality Biomedical Image Segmentation

要約

この作品は、クロスモダリティの生物医学的画像セグメンテーションのための画像ドメイン変換と教師なし機能適応に基づいた新しいフレームワーク CISFA (Contrastive Image Synthesis and Self-supervised Feature Adaptation) を提示します。
既存の作品とは異なり、片側生成モデルを使用し、入力画像のサンプリングされたパッチと対応する合成画像の間に重み付きパッチごとのコントラスト損失を追加します。これは形状の制約として機能します。
さらに、生成された画像と入力画像は同様の構造情報を共有していますが、モダリティが異なることに気付きました。
そのため、生成された画像と入力画像にコントラスト損失を適用して、セグメンテーション モデルのエンコーダーをトレーニングし、学習された埋め込み空間内のペアの画像間の不一致を最小限に抑えます。
特徴適応のために敵対的学習に依存する既存の作業と比較して、このような方法により、エンコーダーはドメインに依存しない特徴をより明示的な方法で学習できます。
腹腔と心臓全体の CT および MRI 画像を含むセグメンテーション タスクに関する方法を広く評価します。
実験結果は、提案されたフレームワークが器官形状の歪みの少ない合成画像を出力するだけでなく、最先端のドメイン適応法よりも大幅に優れていることを示しています。

要約(オリジナル)

This work presents a novel framework CISFA (Contrastive Image synthesis and Self-supervised Feature Adaptation)that builds on image domain translation and unsupervised feature adaptation for cross-modality biomedical image segmentation. Different from existing works, we use a one-sided generative model and add a weighted patch-wise contrastive loss between sampled patches of the input image and the corresponding synthetic image, which serves as shape constraints. Moreover, we notice that the generated images and input images share similar structural information but are in different modalities. As such, we enforce contrastive losses on the generated images and the input images to train the encoder of a segmentation model to minimize the discrepancy between paired images in the learned embedding space. Compared with existing works that rely on adversarial learning for feature adaptation, such a method enables the encoder to learn domain-independent features in a more explicit way. We extensively evaluate our methods on segmentation tasks containing CT and MRI images for abdominal cavities and whole hearts. Experimental results show that the proposed framework not only outputs synthetic images with less distortion of organ shapes, but also outperforms state-of-the-art domain adaptation methods by a large margin.

arxiv情報

著者 Xinrong Hu,Corey Wang,Yiyu Shi
発行日 2022-12-16 17:15:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク