Enhancing Retinal Vascular Structure Segmentation in Images With a Novel Design Two-Path Interactive Fusion Module Model

要約

網膜の微小血管と大血管を識別し、区別する精度は、網膜疾患の診断に極めて重要であるが、それは重要な課題である。現在の自動符号化ベースのセグメンテーションアプローチは、符号化器による制約を受け、符号化段階で解像度が低下するため、限界がある。デコード段階で失われた情報を回復することができないため、これらのアプローチはさらに障害となる。その結果、網膜微小血管構造を抽出する能力が制限される。この問題に対処するために、網膜血管のセグメンテーションの精度を高めるために設計された特別なモジュールであるSwin-Res-Netを紹介する。Swin-Res-Netは、ネットワークの複雑さを軽減し、モデルの収束を加速するために、パーティショニングに変位を伴うシフトウィンドウを使用するSwin変換器を利用する。さらに、このモデルにはRes2Netアーキテクチャの機能モジュールによるインタラクティブ・フュージョンが組み込まれている。Res2Netはマルチスケール技術を活用して畳み込みカーネルの受容野を拡大し、画像からさらに意味情報を抽出できるようにする。この組み合わせにより、網膜の微小血管の局在化と分離を強化する新しいモジュールが作成される。血管情報の処理効率を向上させるために、符号化ステップと復号化ステップの間で冗長な情報を排除するモジュールを追加した。 我々の提案するアーキテクチャは、他の発表されたモデルと同等かそれを上回る、卓越した結果をもたらす。AUCは大幅な向上を反映しており、広く利用されている3つのデータセットにおいて、網膜血管のピクセル単位のセグメンテーションで0.9956、0.9931、0.9946の値を達成した:それぞれCHASE-DB1、DRIVE、STAREである。さらに、Swin-Res-Netは代替アーキテクチャを凌駕し、IOUとF1の両指標において優れた性能を示した。

要約(オリジナル)

Precision in identifying and differentiating micro and macro blood vessels in the retina is crucial for the diagnosis of retinal diseases, although it poses a significant challenge. Current autoencoding-based segmentation approaches encounter limitations as they are constrained by the encoder and undergo a reduction in resolution during the encoding stage. The inability to recover lost information in the decoding phase further impedes these approaches. Consequently, their capacity to extract the retinal microvascular structure is restricted. To address this issue, we introduce Swin-Res-Net, a specialized module designed to enhance the precision of retinal vessel segmentation. Swin-Res-Net utilizes the Swin transformer which uses shifted windows with displacement for partitioning, to reduce network complexity and accelerate model convergence. Additionally, the model incorporates interactive fusion with a functional module in the Res2Net architecture. The Res2Net leverages multi-scale techniques to enlarge the receptive field of the convolutional kernel, enabling the extraction of additional semantic information from the image. This combination creates a new module that enhances the localization and separation of micro vessels in the retina. To improve the efficiency of processing vascular information, we’ve added a module to eliminate redundant information between the encoding and decoding steps. Our proposed architecture produces outstanding results, either meeting or surpassing those of other published models. The AUC reflects significant enhancements, achieving values of 0.9956, 0.9931, and 0.9946 in pixel-wise segmentation of retinal vessels across three widely utilized datasets: CHASE-DB1, DRIVE, and STARE, respectively. Moreover, Swin-Res-Net outperforms alternative architectures, demonstrating superior performance in both IOU and F1 measure metrics.

arxiv情報

著者 Rui Yang,Shunpu Zhang
発行日 2024-03-03 01:36:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク