要約
網膜眼底画像内の血管を正確にセグメンテーションすることは、一部の眼疾患の早期スクリーニング、診断、評価において極めて重要ですが、重大な光の変化、不均一な曲線構造、非対称性などのさまざまな要因により、セグメンテーション作業に重大な不確実性が生じます。
均一なコントラスト。
その結果、網膜眼底画像内の血管を正確に検出するための多重注意誘導融合ネットワーク (MAF-Net) が提案されています。
現在、従来の UNet ベースのモデルは、長距離の依存関係を明示的にモデル化しているため、部分的な情報が失われる可能性があり、満足のいく結果が得られない可能性があります。
シーン情報の損失を補償するためにコンテキスト情報を強化するために、Transformer によって構築されたチャネル アテンションと空間アテンション メカニズムを組み合わせたアテンション フュージョン メカニズムが採用され、網膜眼底画像から血管のさまざまな特徴が抽出されます。
その後、独自の空間アテンション メカニズムがスキップ接続に適用され、低レベルの機能から冗長な情報とノイズが除去され、高レベルの機能とのより適切な統合が可能になります。
さらに、DropOut 層を使用して一部のニューロンをランダムに破棄することで、深層学習ネットワークの過剰適合を防止し、汎化パフォーマンスを向上させることができます。
実験結果は公開データセット DRIVE、STARE、CHASEDB1 で検証され、F1 スコアはそれぞれ 0.818、0.836、0.811、Acc 値は 0.968、0.973、0.973 でした。
視覚的検査と定量的評価の両方で、いくつかの最先端の方法と比較して、私たちの方法が満足のいく結果を生み出すことが実証されています。
要約(オリジナル)
Accurately segmenting blood vessels in retinal fundus images is crucial in the early screening, diagnosing, and evaluating some ocular diseases, yet it poses a nontrivial uncertainty for the segmentation task due to various factors such as significant light variations, uneven curvilinear structures, and non-uniform contrast. As a result, a multiple attention-guided fusion network (MAF-Net) is proposed to accurately detect blood vessels in retinal fundus images. Currently, traditional UNet-based models may lose partial information due to explicitly modeling long-distance dependencies, which may lead to unsatisfactory results. To enrich contextual information for the loss of scene information compensation, an attention fusion mechanism that combines the channel attention with spatial attention mechanisms constructed by Transformer is employed to extract various features of blood vessels from retinal fundus images. Subsequently, a unique spatial attention mechanism is applied in the skip connection to filter out redundant information and noise from low-level features, thus enabling better integration with high-level features. In addition, a DropOut layer is employed to randomly discard some neurons, which can prevent overfitting of the deep learning network and improve its generalization performance. Experimental results were verified in public datasets DRIVE, STARE and CHASEDB1 with F1 scores of 0.818, 0.836 and 0.811, and Acc values of 0.968, 0.973 and 0.973, respectively. Both visual inspection and quantitative evaluation demonstrate that our method produces satisfactory results compared to some state-of-the-art methods.
arxiv情報
著者 | Yuanyuan Peng,Pengpeng Luan,Zixu Zhang |
発行日 | 2023-06-28 13:49:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google