MEGANet: Multi-Scale Edge-Guided Attention Network for Weak Boundary Polyp Segmentation

要約

医療における効率的なポリープのセグメンテーションは、結腸直腸がんの早期診断を可能にする上で重要な役割を果たします。
しかし、ポリープのセグメンテーションには、背景の複雑な分布、ポリープのサイズと形状の変化、境界の不明瞭さなど、多くの課題があります。
前景 (つまり、ポリープ自体) と背景 (周囲の組織) の間の境界を定義することは困難です。
これらの課題を軽減するために、結腸内視鏡画像内のポリープのセグメンテーションに特化して調整されたマルチスケール エッジ ガイド アテンション ネットワーク (MEGANet) を提案します。
このネットワークは、古典的なエッジ検出技術とアテンション メカニズムの融合からインスピレーションを得ています。
これらの技術を組み合わせることで、MEGANet は、ニューラル ネットワークが深くなるにつれて侵食される傾向にある高周波情報、特にエッジや境界を効果的に保存します。
MEGANet はエンドツーエンドのフレームワークとして設計されており、入力画像から特徴をキャプチャして抽象化するエンコーダー、顕著な特徴に焦点を当てるデコーダー、およびエッジ ガイド アテンション モジュールの 3 つの主要なモジュールを包含します。
(EGA) ラプラシアン オペレーターを使用してポリープの境界を強調します。
5 つのベンチマーク データセットに対する定性的および定量的な広範な実験により、当社の EGANet が 6 つの評価指標の下で他の既存の SOTA 手法よりも優れていることが実証されました。
コードは \url{https://github.com/UARK-AICV/MEGANet} で入手できます。

要約(オリジナル)

Efficient polyp segmentation in healthcare plays a critical role in enabling early diagnosis of colorectal cancer. However, the segmentation of polyps presents numerous challenges, including the intricate distribution of backgrounds, variations in polyp sizes and shapes, and indistinct boundaries. Defining the boundary between the foreground (i.e. polyp itself) and the background (surrounding tissue) is difficult. To mitigate these challenges, we propose Multi-Scale Edge-Guided Attention Network (MEGANet) tailored specifically for polyp segmentation within colonoscopy images. This network draws inspiration from the fusion of a classical edge detection technique with an attention mechanism. By combining these techniques, MEGANet effectively preserves high-frequency information, notably edges and boundaries, which tend to erode as neural networks deepen. MEGANet is designed as an end-to-end framework, encompassing three key modules: an encoder, which is responsible for capturing and abstracting the features from the input image, a decoder, which focuses on salient features, and the Edge-Guided Attention module (EGA) that employs the Laplacian Operator to accentuate polyp boundaries. Extensive experiments, both qualitative and quantitative, on five benchmark datasets, demonstrate that our EGANet outperforms other existing SOTA methods under six evaluation metrics. Our code is available at \url{https://github.com/UARK-AICV/MEGANet}.

arxiv情報

著者 Nhat-Tan Bui,Dinh-Hieu Hoang,Quang-Thuc Nguyen,Minh-Triet Tran,Ngan Le
発行日 2023-10-29 18:28:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク