Self-supervised Domain Adaptation for Breaking the Limits of Low-quality Fundus Image Quality Enhancement

要約

網膜眼底画像は、糖尿病性網膜症 (DR) や糖尿病性黄斑浮腫 (DME) などの眼疾患の診断とスクリーニングに適用されています。
ただし、低品質の眼底画像とスタイルの不一致の両方が、眼底疾患の診断の不確実性を高める可能性があり、眼科医による誤診にさえつながる可能性があります。
既存の画像強調方法のほとんどは、主に、医療アプリケーションで収集することが困難な高品質の画像のガイダンスを活用して画質を改善することに焦点を当てています。
このホワイトペーパーでは、完全に教師なしの設定、つまりペア画像でも高品質画像でもない設定で画質向上に取り組みます。
この目的のために、高品質の参照画像を必要とせずに眼底画像の品質を向上させるための自己教師付きタスクの可能性を探ります。
具体的には、補助的な事前トレーニング済みの品質評価ネットワークとスタイル クラスタリングを介して、複数のパッチごとのドメインを構築します。
堅牢な低品質画像の強化を実現し、スタイルの不一致に対処するために、低品質画像内の固有の監視信号を調査することにより、画像コンテンツ、低品質要素、およびスタイル情報の特徴を解きほぐす 2 つの自己監視ドメイン適応タスクを定式化します。
EyeQ および Messidor データセットに対して広範な実験が行われ、結果は、低品質の画像しか利用できない場合でも、DASQE メソッドが新しい最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

Retinal fundus images have been applied for the diagnosis and screening of eye diseases, such as Diabetic Retinopathy (DR) or Diabetic Macular Edema (DME). However, both low-quality fundus images and style inconsistency potentially increase uncertainty in the diagnosis of fundus disease and even lead to misdiagnosis by ophthalmologists. Most of the existing image enhancement methods mainly focus on improving the image quality by leveraging the guidance of high-quality images, which is difficult to be collected in medical applications. In this paper, we tackle image quality enhancement in a fully unsupervised setting, i.e., neither paired images nor high-quality images. To this end, we explore the potential of the self-supervised task for improving the quality of fundus images without the requirement of high-quality reference images. Specifically, we construct multiple patch-wise domains via an auxiliary pre-trained quality assessment network and a style clustering. To achieve robust low-quality image enhancement and address style inconsistency, we formulate two self-supervised domain adaptation tasks to disentangle the features of image content, low-quality factor and style information by exploring intrinsic supervision signals within the low-quality images. Extensive experiments are conducted on EyeQ and Messidor datasets, and results show that our DASQE method achieves new state-of-the-art performance when only low-quality images are available.

arxiv情報

著者 Qingshan Hou,Peng Cao,Jiaqi Wang,Xiaoli Liu,Jinzhu Yang,Osmar R. Zaiane
発行日 2023-01-17 15:07:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク