Unpaired Optical Coherence Tomography Angiography Image Super-Resolution via Frequency-Aware Inverse-Consistency GAN

要約

光コヒーレンス断層撮影血管造影 (OCTA) 画像の場合、走査速度が制限されると、視野 (FOV) と画像解像度との間のトレードオフが生じます。
より大きな FOV 画像では、より多くの傍中心窩血管病変が明らかになる可能性がありますが、解像度が低いため、その適用は大幅に妨げられます。
解像度を高めるために、これまでの研究では、トレーニングにペア データを使用することによってのみ満足のいくパフォーマンスを達成していましたが、現実世界のアプリケーションは、大規模なペア画像を収集するという課題によって制限されています。
したがって、ペアのないアプローチが強く求められています。
Generative Adversarial Network (GAN) はペアリングされていない設定で一般的に使用されていますが、OCTA の重要なバイオマーカーである細粒毛細管の詳細を正確に保存するのは難しい場合があります。
この論文では、私たちのアプローチは、高周波 ($\textbf{hf}$) として詳細を表し、低周波 ($\textbf{lf}$) として粗粒背景を表す周波数情報を活用することで、これらの詳細を保存することを目指しています。
)。
一般に、我々は OCTA 画像に対して GAN ベースの不対超解像度法を提案し、デュアルパスジェネレーターを通じて $\textbf{hf}$ の微細毛細管を例外的に強調します。
再構成された画像の正確なスペクトルを容易にするために、弁別器に対して周波数を意識した敵対的損失を提案し、エンドツーエンドの最適化のために周波数を意識した焦点一貫性損失を導入します。
実験では、私たちの方法が他の最先端の不対法よりも定量的および視覚的に優れていることが示されています。

要約(オリジナル)

For optical coherence tomography angiography (OCTA) images, a limited scanning rate leads to a trade-off between field-of-view (FOV) and imaging resolution. Although larger FOV images may reveal more parafoveal vascular lesions, their application is greatly hampered due to lower resolution. To increase the resolution, previous works only achieved satisfactory performance by using paired data for training, but real-world applications are limited by the challenge of collecting large-scale paired images. Thus, an unpaired approach is highly demanded. Generative Adversarial Network (GAN) has been commonly used in the unpaired setting, but it may struggle to accurately preserve fine-grained capillary details, which are critical biomarkers for OCTA. In this paper, our approach aspires to preserve these details by leveraging the frequency information, which represents details as high-frequencies ($\textbf{hf}$) and coarse-grained backgrounds as low-frequencies ($\textbf{lf}$). In general, we propose a GAN-based unpaired super-resolution method for OCTA images and exceptionally emphasize $\textbf{hf}$ fine capillaries through a dual-path generator. To facilitate a precise spectrum of the reconstructed image, we also propose a frequency-aware adversarial loss for the discriminator and introduce a frequency-aware focal consistency loss for end-to-end optimization. Experiments show that our method outperforms other state-of-the-art unpaired methods both quantitatively and visually.

arxiv情報

著者 Weiwen Zhang,Dawei Yang,Haoxuan Che,An Ran Ran,Carol Y. Cheung,Hao Chen
発行日 2023-09-29 14:19:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク