Two-stage MR Image Segmentation Method for Brain Tumors based on Attention Mechanism

要約

タイトル:アテンションメカニズムを基にした脳腫瘍の2段階MR画像セグメンテーション法

要約:
– 多様で信頼性の高い複数モダリティのMR画像を取得することは、コスト、ノイズ、および手動のラベリングに制限されるため、課題である。
– 提案されたCASP-GANでは、Coordinate Attention (CA)モジュールとSpatial Attention (SA)モジュールを導入することで、捕捉された位置情報を完全に活用し、関心領域を精確に特定し、ジェネレータモデルネットワーク構造を強化することが可能。
– CASP-GANを基盤として、Attentional Generative Cross-Modality Segmentation (AGCMS)法が提案されている。
– 実験結果では、CASP-GANは、PSNR、SSMI、およびRMSEにおいて、CycleGANおよびいくつかの最新の方法よりも優れたパフォーマンスを発揮している。

要点:
– 複数モダリティのMR画像を取得することは課題である。
– CASP-GANでは、CAモジュールおよびSAモジュールを導入することで、関心領域を精確に特定し、ジェネレータモデルネットワーク構造を強化することが可能。
– CASP-GANを基盤としてAGCMS法が提案され、実験結果ではCASP-GANが優れたパフォーマンスを発揮している。

要約(オリジナル)

Multimodal magnetic resonance imaging (MRI) can reveal different patterns of human tissue and is crucial for clinical diagnosis. However, limited by cost, noise and manual labeling, obtaining diverse and reliable multimodal MR images remains a challenge. For the same lesion, different MRI manifestations have great differences in background information, coarse positioning and fine structure. In order to obtain better generation and segmentation performance, a coordination-spatial attention generation adversarial network (CASP-GAN) based on the cycle-consistent generative adversarial network (CycleGAN) is proposed. The performance of the generator is optimized by introducing the Coordinate Attention (CA) module and the Spatial Attention (SA) module. The two modules can make full use of the captured location information, accurately locating the interested region, and enhancing the generator model network structure. The ability to extract the structure information and the detailed information of the original medical image can help generate the desired image with higher quality. There exist some problems in the original CycleGAN that the training time is long, the parameter amount is too large, and it is difficult to converge. In response to this problem, we introduce the Coordinate Attention (CA) module to replace the Res Block to reduce the number of parameters, and cooperate with the spatial information extraction network above to strengthen the information extraction ability. On the basis of CASP-GAN, an attentional generative cross-modality segmentation (AGCMS) method is further proposed. This method inputs the modalities generated by CASP-GAN and the real modalities into the segmentation network for brain tumor segmentation. Experimental results show that CASP-GAN outperforms CycleGAN and some state-of-the-art methods in PSNR, SSMI and RMSE in most tasks.

arxiv情報

著者 Li Zhu,Jiawei Jiang,Lin Lu,Jin Li
発行日 2023-04-17 08:34:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク