FGR-Net:Interpretable fundus imagegradeability classification based on deepreconstruction learning

要約

網膜疾患の診断用コンピュータ支援設計 (CAD) システムのパフォーマンスは、スクリーニングされる網膜画像の品質に依存します。
したがって、そのような網膜画像の品質を評価および評価するために多くの研究が開発されてきました。
しかし、それらのほとんどは、開発されたモデルの精度と、グレーディング可能な網膜画像とグレーディング不可能な網膜画像を区別するための解釈可能性方法の視覚化の品質との関係を調査していませんでした。
したがって、この論文では、オートエンコーダー ネットワークと分類子ネットワークを結合することによって、基礎となる眼底画像の品質を自動的に評価および解釈する、FGR-Net と呼ばれる新しいフレームワークを紹介します。
FGR-Net モデルは、視覚化を通じて解釈可能な品質評価も提供します。
特に、FGR-Net は、自己教師あり学習に基づいて入力眼底画像の視覚的特徴を抽出するために、ディープ オートエンコーダーを使用して入力画像を再構成します。
オートエンコーダーによって抽出された特徴は、次に、等級付け可能な眼底画像と等級付け不可能な眼底画像を区別するために深層分類器ネットワークに供給されます。
FGR-Net はさまざまな解釈可能性メソッドで評価されており、オートエンコーダーが、中心窩、視神経乳頭、顕著な血管などの眼底画像の関連構造に分類器に焦点を合わせるための重要な要素であることが示されています。
さらに、解釈可能性メソッドは、眼科医がモデルが眼底画像の品質をどのように評価するかを理解するための視覚的なフィードバックを提供できます。
実験結果では、精度 89%、F1 スコア 87% という、最先端の品質評価方法に対する FGR-Net の優位性が示されました。

要約(オリジナル)

The performance of diagnostic Computer-Aided Design (CAD) systems for retinal diseases depends on the quality of the retinal images being screened. Thus, many studies have been developed to evaluate and assess the quality of such retinal images. However, most of them did not investigate the relationship between the accuracy of the developed models and the quality of the visualization of interpretability methods for distinguishing between gradable and non-gradable retinal images. Consequently, this paper presents a novel framework called FGR-Net to automatically assess and interpret underlying fundus image quality by merging an autoencoder network with a classifier network. The FGR-Net model also provides an interpretable quality assessment through visualizations. In particular, FGR-Net uses a deep autoencoder to reconstruct the input image in order to extract the visual characteristics of the input fundus images based on self-supervised learning. The extracted features by the autoencoder are then fed into a deep classifier network to distinguish between gradable and ungradable fundus images. FGR-Net is evaluated with different interpretability methods, which indicates that the autoencoder is a key factor in forcing the classifier to focus on the relevant structures of the fundus images, such as the fovea, optic disk, and prominent blood vessels. Additionally, the interpretability methods can provide visual feedback for ophthalmologists to understand how our model evaluates the quality of fundus images. The experimental results showed the superiority of FGR-Net over the state-of-the-art quality assessment methods, with an accuracy of 89% and an F1-score of 87%.

arxiv情報

著者 Saif Khalid,Hatem A. Rashwan,Saddam Abdulwahab,Mohamed Abdel-Nasser,Facundo Manuel Quiroga,Domenec Puig
発行日 2024-09-16 12:56:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク