Physiology-based simulation of the retinal vasculature enables annotation-free segmentation of OCT angiographs

要約

光コヒーレンストモグラフィー血管造影(OCTA)は、眼の循環系を非侵襲的に画像化できます。
網膜血管系を確実に特徴づけるために、これらの画像から定量的測定基準を自動的に抽出する必要があります。
このようなバイオマーカーの計算には、血管の正確なセマンティックセグメンテーションが必要です。
ただし、セグメンテーションの深層学習ベースの方法は、ほとんどの場合、ボクセルレベルの注釈を使用した教師ありトレーニングに依存しており、取得にコストがかかります。
この作業では、本質的に一致するグラウンドトゥルースラベルを使用して、大量のリアルなOCTA画像を合成するパイプラインを紹介します。
これにより、トレーニングデータに手動で注釈を付ける必要がなくなります。
私たちの提案する方法は、2つの新しいコンポーネントに基づいています:1)さまざまな網膜血管叢をモデル化する生理学ベースのシミュレーションと2)典型的なアーティファクトを含むOCTA画像取得プロセスをエミュレートする一連の物理ベースの画像増強。
広範なベンチマーク実験では、網膜血管セグメンテーションアルゴリズムのトレーニングに成功することで、合成データの有用性を示しています。
私たちの方法の競争力のある定量的および優れた定性的性能に後押しされて、OCTA画像の定量分析を進めるための多目的なツールを構成すると信じています。

要約(オリジナル)

Optical coherence tomography angiography (OCTA) can non-invasively image the eye’s circulatory system. In order to reliably characterize the retinal vasculature, there is a need to automatically extract quantitative metrics from these images. The calculation of such biomarkers requires a precise semantic segmentation of the blood vessels. However, deep-learning-based methods for segmentation mostly rely on supervised training with voxel-level annotations, which are costly to obtain. In this work, we present a pipeline to synthesize large amounts of realistic OCTA images with intrinsically matching ground truth labels; thereby obviating the need for manual annotation of training data. Our proposed method is based on two novel components: 1) a physiology-based simulation that models the various retinal vascular plexuses and 2) a suite of physics-based image augmentations that emulate the OCTA image acquisition process including typical artifacts. In extensive benchmarking experiments, we demonstrate the utility of our synthetic data by successfully training retinal vessel segmentation algorithms. Encouraged by our method’s competitive quantitative and superior qualitative performance, we believe that it constitutes a versatile tool to advance the quantitative analysis of OCTA images.

arxiv情報

著者 Martin J. Menten,Johannes C. Paetzold,Alina Dima,Bjoern H. Menze,Benjamin Knier,Daniel Rueckert
発行日 2022-07-22 14:22:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク