要約
TRUS 画像の前立腺には境界があいまいで、強度分布が不均一であるため、TRUS 画像における前立腺の自動セグメンテーションは常に困難な問題でした。
多くの前立腺セグメンテーション方法が提案されていますが、エッジ情報に対する感度が低いため、依然として改善の必要があります。
したがって、この研究の目的は、これらの制限を克服し、TRUS 画像内で前立腺の正確なセグメンテーションを達成する、非常に効果的な前立腺セグメンテーション方法を考案することです。
この論文では、3D エッジ認識型敵対的生成ネットワーク (3D EAGAN) ベースの前立腺セグメンテーション法を提案します。この手法は、前立腺セグメンテーションを実行するエッジ認識型セグメンテーション ネットワーク (EASNet) と、予測された前立腺を区別する弁別ネットワークで構成されます。
本物の前立腺。
提案されている EASNet は、エンコーダ/デコーダベースの U-Net バックボーン ネットワーク、詳細補償モジュール、4 つの 3D 空間およびチャネル アテンション モジュール、エッジ強化モジュール、およびグローバル特徴抽出器で構成されています。
詳細補償モジュールは、エンコーダのダウンサンプリング プロセスによって引き起こされる詳細情報の損失を補償するために提案されています。
ディテール補正モジュールの機能は、3D 空間およびチャネル アテンション モジュールによって選択的に強化されます。
さらに、EASNet の浅い層をガイドして前立腺の輪郭とエッジ情報に焦点を当てるエッジ強化モジュールが提案されています。
最後に、浅い層からの特徴とデコーダ モジュールからの階層特徴がグローバル特徴抽出器を通じて融合され、前立腺のセグメンテーションが予測されます。
要約(オリジナル)
Automatic prostate segmentation in TRUS images has always been a challenging problem, since prostates in TRUS images have ambiguous boundaries and inhomogeneous intensity distribution. Although many prostate segmentation methods have been proposed, they still need to be improved due to the lack of sensibility to edge information. Consequently, the objective of this study is to devise a highly effective prostate segmentation method that overcomes these limitations and achieves accurate segmentation of prostates in TRUS images. A 3D edge-aware attention generative adversarial network (3D EAGAN)-based prostate segmentation method is proposed in this paper, which consists of an edge-aware segmentation network (EASNet) that performs the prostate segmentation and a discriminator network that distinguishes predicted prostates from real prostates. The proposed EASNet is composed of an encoder-decoder-based U-Net backbone network, a detail compensation module, four 3D spatial and channel attention modules, an edge enhance module, and a global feature extractor. The detail compensation module is proposed to compensate for the loss of detailed information caused by the down-sampling process of the encoder. The features of the detail compensation module are selectively enhanced by the 3D spatial and channel attention module. Furthermore, an edge enhance module is proposed to guide shallow layers in the EASNet to focus on contour and edge information in prostates. Finally, features from shallow layers and hierarchical features from the decoder module are fused through the global feature extractor to predict the segmentation prostates.
arxiv情報
著者 | Mengqing Liu,Xiao Shao,Liping Jiang,Kaizhi Wu |
発行日 | 2023-11-07 15:03:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google