要約
低画質の眼底画像を用いた臨床スクリーニングは困難であり、誤診に大きくつながる。本論文では、網膜画像復元による網膜画質の向上と血管セグメンテーションの問題を取り上げる。具体的には、CBAM(Convolution Block Attention Module)を用いたCycleGAN(Cycle-Consistent Generative adversarial Network)を網膜画像復元に使用する。また、復元された網膜画像に対する網膜血管のセグメンテーションには、修正UNetを用いる(CBAM-UNet)。提案モデルは、2つの生成器と2つの識別器から構成される。生成器は画像をある領域から別の領域へ、すなわち低画質から高画質へ、あるいはその逆へ変換する。識別器は生成された画像と元の画像を分類する。網膜血管セグメンテーションモデルは、ダウンサンプリング、ボトルネック、アップサンプリングの各レイヤーを用いて、セグメンテーションされた画像を生成する。CBAMはこれらのモデルの特徴抽出を強化するために用いられている.提案手法は、作成が困難なペア画像データセットを必要としない。その代わりに,一般に公開されているデータセットから取得した低画質と高画質の眼底画像からなる非対称データを用いる.提案手法の復元性能は,ピーク信号対雑音比(PSNR)や構造類似度指標(SSIM)などのフルリファレンス評価指標を用いて評価された.また,網膜血管のセグメンテーション性能について,真正眼底画像と比較した.提案手法は,ピンボケ,色歪み,低照度,高照度,照度ムラによる劣化効果を大幅に低減することができる.実験結果により,提案手法の網膜画像復元と血管セグメンテーションに対する有効性が示された.
要約(オリジナル)
Clinical screening with low-quality fundus images is challenging and significantly leads to misdiagnosis. This paper addresses the issue of improving the retinal image quality and vessel segmentation through retinal image restoration. More specifically, a cycle-consistent generative adversarial network (CycleGAN) with a convolution block attention module (CBAM) is used for retinal image restoration. A modified UNet is used for retinal vessel segmentation for the restored retinal images (CBAM-UNet). The proposed model consists of two generators and two discriminators. Generators translate images from one domain to another, i.e., from low to high quality and vice versa. Discriminators classify generated and original images. The retinal vessel segmentation model uses downsampling, bottlenecking, and upsampling layers to generate segmented images. The CBAM has been used to enhance the feature extraction of these models. The proposed method does not require paired image datasets, which are challenging to produce. Instead, it uses unpaired data that consists of low- and high-quality fundus images retrieved from publicly available datasets. The restoration performance of the proposed method was evaluated using full-reference evaluation metrics, e.g., peak signal-to-noise ratio (PSNR) and structural similarity index measure (SSIM). The retinal vessel segmentation performance was compared with the ground-truth fundus images. The proposed method can significantly reduce the degradation effects caused by out-of-focus blurring, color distortion, low, high, and uneven illumination. Experimental results show the effectiveness of the proposed method for retinal image restoration and vessel segmentation.
arxiv情報
著者 | Alnur Alimanov,Md Baharul Islam |
発行日 | 2022-09-09 10:47:20+00:00 |
arxivサイト | arxiv_id(pdf) |