要約
画質は、網膜画像解析に対する従来のアプローチと深層学習 (DL) ベースのアプローチの両方にとって依然として重要な問題ですが、低品質の画像の特定には時間がかかり、主観的になる可能性があります。
したがって、網膜画質スコアリング (RIQS) の自動化された方法が必要です。
現在の最先端は MCFNet で、それぞれが異なる色空間で動作する 3 つの Densenet121 バックボーンで構成されています。
MCFNet、および同じ作成者によってリリースされた EyeQ データセットは、RIQS にとって大きな前進でした。
RIQS へのシンプルなアプローチである QuickQual を紹介します。これは、既製の ImageNet で事前トレーニングされた単一の Densenet121 バックボーンとサポート ベクター マシン (SVM) で構成されます。
QuickQual は非常に優れたパフォーマンスを発揮し、EyeQ の新たな最先端を確立しました (精度: MCFNet の 88.50% 対 88.00%、AUC: 0.9687 対 0.9588)。
これは、大量の眼底画像でトレーニングされた DL モデルを必要とするのではなく、自然画像で学習した一般的な知覚特徴を使用して RIQS を解決できることを示唆しています。
さらに、EyeQ を 3 方向分類から連続ロジスティック回帰タスクに変換する固定事前線形化スキームを提案します。
このタスクでは、2 番目のモデルである QuickQual MEga Minified Estimator (QuickQual-MEME) を紹介します。このモデルは、既製の Densenet121 上のわずか 10 個のパラメーターで構成され、グレーディング可能な画像とグレーディング不可能な画像を 89.18% の精度で区別できます。
(AUC: 0.9537)。
コードとモデルは、GitHub: https://github.com/justinengelmann/QuickQual で入手できます。
QuickQual は非常に軽量であるため、推論コード全体 (および QuickQual-MEME のパラメーターも) がすでにこのペーパーに含まれています。
要約(オリジナル)
Image quality remains a key problem for both traditional and deep learning (DL)-based approaches to retinal image analysis, but identifying poor quality images can be time consuming and subjective. Thus, automated methods for retinal image quality scoring (RIQS) are needed. The current state-of-the-art is MCFNet, composed of three Densenet121 backbones each operating in a different colour space. MCFNet, and the EyeQ dataset released by the same authors, was a huge step forward for RIQS. We present QuickQual, a simple approach to RIQS, consisting of a single off-the-shelf ImageNet-pretrained Densenet121 backbone plus a Support Vector Machine (SVM). QuickQual performs very well, setting a new state-of-the-art for EyeQ (Accuracy: 88.50% vs 88.00% for MCFNet; AUC: 0.9687 vs 0.9588). This suggests that RIQS can be solved with generic perceptual features learned on natural images, as opposed to requiring DL models trained on large amounts of fundus images. Additionally, we propose a Fixed Prior linearisation scheme, that converts EyeQ from a 3-way classification to a continuous logistic regression task. For this task, we present a second model, QuickQual MEga Minified Estimator (QuickQual-MEME), that consists of only 10 parameters on top of an off-the-shelf Densenet121 and can distinguish between gradable and ungradable images with an accuracy of 89.18% (AUC: 0.9537). Code and model are available on GitHub: https://github.com/justinengelmann/QuickQual . QuickQual is so lightweight, that the entire inference code (and even the parameters for QuickQual-MEME) is already contained in this paper.
arxiv情報
著者 | Justin Engelmann,Amos Storkey,Miguel O. Bernabeu |
発行日 | 2023-07-25 16:55:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google