要約
本研究では、クロスモダリティの生体画像セグメンテーションのために、画像領域の変換と教師なし特徴適応を構築する、新しいフレームワークCISFA(Contrastive Image synthesis and Self-supervised Feature Adaptation)を提案する。既存の研究とは異なり、我々は片側生成モデルを使用し、入力画像のサンプリングパッチと対応する合成画像との間に、形状制約として機能する重み付きパッチ単位のコントラスト損失を追加する。さらに、生成画像と入力画像は類似した構造情報を共有するが、モダリティが異なることに注目する。そのため、生成画像と入力画像に対比的な損失を与え、学習された埋め込み空間における対になった画像間の不一致を最小化するように、セグメンテーションモデルのエンコーダを学習させる。特徴適応のために敵対的学習に依存する既存の研究と比較して、このような方法は、エンコーダがより明示的な方法でドメインに依存しない特徴を学習することを可能にする。腹腔と心臓全体のCTとMRI画像を含むセグメンテーションタスクで、我々の手法を広範囲に評価する。実験結果は、提案フレームワークが、臓器形状の歪みの少ない合成画像を出力するだけでなく、最新の領域適応手法を大差で凌駕することを示している。
要約(オリジナル)
This work presents a novel framework CISFA (Contrastive Image synthesis and Self-supervised Feature Adaptation)that builds on image domain translation and unsupervised feature adaptation for cross-modality biomedical image segmentation. Different from existing works, we use a one-sided generative model and add a weighted patch-wise contrastive loss between sampled patches of the input image and the corresponding synthetic image, which serves as shape constraints. Moreover, we notice that the generated images and input images share similar structural information but are in different modalities. As such, we enforce contrastive losses on the generated images and the input images to train the encoder of a segmentation model to minimize the discrepancy between paired images in the learned embedding space. Compared with existing works that rely on adversarial learning for feature adaptation, such a method enables the encoder to learn domain-independent features in a more explicit way. We extensively evaluate our methods on segmentation tasks containing CT and MRI images for abdominal cavities and whole hearts. Experimental results show that the proposed framework not only outputs synthetic images with less distortion of organ shapes, but also outperforms state-of-the-art domain adaptation methods by a large margin.
arxiv情報
著者 | Xinrong Hu,Corey Wang,Yiyu Shi |
発行日 | 2023-09-01 17:08:02+00:00 |
arxivサイト | arxiv_id(pdf) |