Reference-based OCT Angiogram Super-resolution with Learnable Texture Generation

要約

タイトル:学習可能なテクスチャ生成を用いた参照ベースのOCT Angiogramスーパーレゾリューション

要約:
– OCT Angiography(OCTA)は、視網膜微小血管を視覚化するための新しい画像モダリティであり、クリニックで広く採用されています。
– 高解像度のOCT Angiogramは、異なる視網膜疾患の潜在的なバイオマーカーを定量的かつ定性的に正確に識別するために重要です。
– しかし、OCTAの重要な問題の1つは、固定された取得時間の場合、視野を広げると必ず解像度が低下することです。
– この問題を解決するために、提案手法は、OCT Angiogramの解像度を保持しながらスキャン範囲を拡大するための参照ベースのスーパーレゾリューション(RefSR)フレームワークを提案しています。
– 具体的には、通常のRefSRパイプラインからのテクスチャを使用して学習可能なテクスチャジェネレータ(LTG)をトレーニングし、入力に応じてテクスチャを生成するように設計されています。
– 提案手法と従来のRefSRモデルの主な違いは、推論中に使用されるテクスチャが、単一の参照画像から検索されるのではなく、LTGによって生成されることです。
– LTGがトレーニングプロセス全体で最適化されるため、利用可能なテクスチャスペースは単一の参照画像に限定されず、トレーニングサンプルに含まれるすべてのテクスチャに拡張されます。
– さらに、提案されたLTGNetは推論フェーズで参照画像を必要としないため、参照画像の選択に対して無傷であることになります。
– 実験結果と視覚的結果の両方が、LTGNetが最先端の手法に比べて優れた性能と堅牢性を示し、現実世界での展開において良好な信頼性と約束があることを示しています。
– 受け入れられた場合には、ソースコードが利用可能になります。

要約(オリジナル)

Optical coherence tomography angiography (OCTA) is a new imaging modality to visualize retinal microvasculature and has been readily adopted in clinics. High-resolution OCT angiograms are important to qualitatively and quantitatively identify potential biomarkers for different retinal diseases accurately. However, one significant problem of OCTA is the inevitable decrease in resolution when increasing the field-of-view given a fixed acquisition time. To address this issue, we propose a novel reference-based super-resolution (RefSR) framework to preserve the resolution of the OCT angiograms while increasing the scanning area. Specifically, textures from the normal RefSR pipeline are used to train a learnable texture generator (LTG), which is designed to generate textures according to the input. The key difference between the proposed method and traditional RefSR models is that the textures used during inference are generated by the LTG instead of being searched from a single reference image. Since the LTG is optimized throughout the whole training process, the available texture space is significantly enlarged and no longer limited to a single reference image, but extends to all textures contained in the training samples. Moreover, our proposed LTGNet does not require a reference image at the inference phase, thereby becoming invulnerable to the selection of the reference image. Both experimental and visual results show that LTGNet has superior performance and robustness over state-of-the-art methods, indicating good reliability and promise in real-life deployment. The source code will be made available upon acceptance.

arxiv情報

著者 Yuyan Ruan,Dawei Yang,Ziqi Tang,An Ran Ran,Carol Y. Cheung,Hao Chen
発行日 2023-05-10 01:48:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: 68T07, cs.CV, cs.LG, eess.IV, I.2 パーマリンク