Structure Unbiased Adversarial Model for Medical Image Segmentation

要約

生成モデルは、分布が実際の分布に似ている画像をより多く生成するために画像認識で広く提案されています。
実際のデータと生成されたデータを区別するために、多くの場合、弁別ネットワークが導入されます。
このようなモデルは、転送されたスタイルのデータをターゲット データセットに含まれるデータから区別する役割を担うディスクリミネーター ネットワークを利用します。
ただし、そうする際、ネットワークは強度分布の不一致に焦点を当て、データセット間の構造的な違いを見落とす可能性があります。
この論文では、生成された画像の構造がターゲット データセット内の構造と類似していることを保証するために、新しい画像間の変換問題を定式化します。
我々は、画像セグメンテーションを実行する際に、トレーニングセットとテストセットの間の強度と構造的な違いの両方を考慮する、シンプルでありながら強力な構造不偏敵対的(SUA)ネットワークを提案します。
これは、空間変換ブロックとそれに続く強度分布レンダリング モジュールで構成されます。
空間変換ブロックは、2 つの画像間の構造ギャップを削減し、最終的なセグメント化された画像を後方にワープする逆変形フィールドを生成するために提案されています。
次に、強度分布レンダリング モジュールは、変形した構造をターゲットの強度分布を持つ画像にレンダリングします。
実験結果は、提案された SUA 手法が複数のデータセット間で強度分布と構造内容の両方を転送する機能を備えていることを示しています。

要約(オリジナル)

Generative models have been widely proposed in image recognition to generate more images where the distribution is similar to that of the real ones. It often introduces a discriminator network to differentiate the real data from the generated ones. Such models utilise a discriminator network tasked with differentiating style transferred data from data contained in the target dataset. However in doing so the network focuses on discrepancies in the intensity distribution and may overlook structural differences between the datasets. In this paper we formulate a new image-to-image translation problem to ensure that the structure of the generated images is similar to that in the target dataset. We propose a simple, yet powerful Structure-Unbiased Adversarial (SUA) network which accounts for both intensity and structural differences between the training and test sets when performing image segmentation. It consists of a spatial transformation block followed by an intensity distribution rendering module. The spatial transformation block is proposed to reduce the structure gap between the two images, and also produce an inverse deformation field to warp the final segmented image back. The intensity distribution rendering module then renders the deformed structure to an image with the target intensity distribution. Experimental results show that the proposed SUA method has the capability to transfer both intensity distribution and structural content between multiple datasets.

arxiv情報

著者 Tianyang Zhang,Shaoming Zheng,Jun Cheng,Xi Jia,Joseph Bartlett,Xinxing Cheng,Huazhu Fu,Zhaowen Qiu,Jiang Liu,Jinming Duan
発行日 2024-07-30 13:29:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク