Two-stage MR Image Segmentation Method for Brain Tumors based on Attention Mechanism

要約

マルチモーダル磁気共鳴画像法 (MRI) は、ヒト組織のさまざまなパターンを明らかにすることができ、臨床診断に不可欠です。
しかし、コスト、ノイズ、手動によるラベル付けによって制限があり、多様で信頼性の高いマルチモーダル MR 画像を取得することは依然として課題です。
同じ病変でも、MRI の症状が異なると、背景情報、大まかな位置、微細構造が大きく異なります。
より良い生成およびセグメンテーションのパフォーマンスを得るために、サイクル一貫性のある敵対的生成ネットワーク (CycleGAN) に基づく調整空間注意生成敵対的ネットワーク (CASP-GAN) が提案されています。
ジェネレーターのパフォーマンスは、座標アテンション (CA) モジュールと空間アテンション (SA) モジュールを導入することによって最適化されます。
2 つのモジュールは、取得した位置情報を最大限に活用して、関心のある領域を正確に特定し、ジェネレーター モデルのネットワーク構造を強化します。
元の医用画像の構造情報や詳細情報を抽出できるため、より高品質な画像を生成できます。
オリジナルのCycleGANには、学習時間が長い、パラメータ量が多すぎる、収束しにくいといういくつかの問題があります。
この問題に対処するために、Res ブロックを置き換える座標アテンション (CA) モジュールを導入してパラメータの数を削減し、上記の空間情報抽出ネットワークと連携して情報抽出能力を強化します。
CASP-GANに基づいて、注意生成クロスモダリティセグメンテーション(AGCMS)法がさらに提案されている。
この方法は、CASP-GAN によって生成されたモダリティと実際のモダリティを脳腫瘍セグメンテーション用のセグメンテーション ネットワークに入力します。
実験結果は、CASP-GAN が、ほとんどのタスクにおいて PSNR、SSMI、RMSE において CycleGAN やいくつかの最先端の手法よりも優れていることを示しています。

要約(オリジナル)

Multimodal magnetic resonance imaging (MRI) can reveal different patterns of human tissue and is crucial for clinical diagnosis. However, limited by cost, noise and manual labeling, obtaining diverse and reliable multimodal MR images remains a challenge. For the same lesion, different MRI manifestations have great differences in background information, coarse positioning and fine structure. In order to obtain better generation and segmentation performance, a coordination-spatial attention generation adversarial network (CASP-GAN) based on the cycle-consistent generative adversarial network (CycleGAN) is proposed. The performance of the generator is optimized by introducing the Coordinate Attention (CA) module and the Spatial Attention (SA) module. The two modules can make full use of the captured location information, accurately locating the interested region, and enhancing the generator model network structure. The ability to extract the structure information and the detailed information of the original medical image can help generate the desired image with higher quality. There exist some problems in the original CycleGAN that the training time is long, the parameter amount is too large, and it is difficult to converge. In response to this problem, we introduce the Coordinate Attention (CA) module to replace the Res Block to reduce the number of parameters, and cooperate with the spatial information extraction network above to strengthen the information extraction ability. On the basis of CASP-GAN, an attentional generative cross-modality segmentation (AGCMS) method is further proposed. This method inputs the modalities generated by CASP-GAN and the real modalities into the segmentation network for brain tumor segmentation. Experimental results show that CASP-GAN outperforms CycleGAN and some state-of-the-art methods in PSNR, SSMI and RMSE in most tasks.

arxiv情報

著者 Li Zhu,Jiawei Jiang,Lin Lu,Jin Li
発行日 2023-10-10 10:53:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク