Benchmarking Retinal Blood Vessel Segmentation Models for Cross-Dataset and Cross-Disease Generalization

要約

網膜血管セグメンテーションにより、眼底画像から臨床関連情報を抽出できます。
手動によるトレースは面倒であるため、畳み込みニューラル ネットワークに基づくアルゴリズムが開発されました。
このような研究では、トレーニングとパフォーマンスの測定に公的に入手可能な小規模なデータセットが使用されており、過剰適合のリスクがあります。
ここでは、これまでに公開された最大のデータセットに関する文献で一般的に使用されているさまざまなアーキテクチャおよびトレーニングの選択肢に対する厳密なベンチマークを提供します。
私たちは、公開されている FIVES 眼底画像データセットに基づいて 5 つの公開モデルをトレーニングおよび評価します。このデータセットには、サイズと品質の点で以前のモデルを上回っており、一般的な眼科疾患 (糖尿病性網膜症、加齢黄斑変性症、緑内障) の画像も含まれています。
私たちは、さまざまな損失関数、画質レベル、眼科的状態にわたってさまざまなモデル アーキテクチャのパフォーマンスを比較し、疾患によって引き起こされるドメインのシフトに直面してもうまく機能する能力を評価します。
十分なトレーニング データがあれば、U-Net などの基本的なアーキテクチャはより高度なアーキテクチャと同様にパフォーマンスを発揮し、病気によって引き起こされるドメインのシフト間での転送は通常、ほとんどのアーキテクチャで適切に機能します。
ただし、画質がセグメンテーションの結果を決定する重要な要素であることがわかりました。
セグメンテーションのパフォーマンスを最適化する場合、適切に厳選されたデータセットに投資して標準アーキテクチャをトレーニングする方が、小規模なデータセットや低画質のデータセットで洗練されたアーキテクチャをチューニングするよりも良い結果が得られます。
私たちは、臨床関連性の観点からアーキテクチャの進歩の有用性を抽出し、臨床現場の状況に応じてモデルを選択するための実践的なガイダンスを提供します。

要約(オリジナル)

Retinal blood vessel segmentation can extract clinically relevant information from fundus images. As manual tracing is cumbersome, algorithms based on Convolution Neural Networks have been developed. Such studies have used small publicly available datasets for training and measuring performance, running the risk of overfitting. Here, we provide a rigorous benchmark for various architectural and training choices commonly used in the literature on the largest dataset published to date. We train and evaluate five published models on the publicly available FIVES fundus image dataset, which exceeds previous ones in size and quality and which contains also images from common ophthalmological conditions (diabetic retinopathy, age-related macular degeneration, glaucoma). We compare the performance of different model architectures across different loss functions, levels of image qualitiy and ophthalmological conditions and assess their ability to perform well in the face of disease-induced domain shifts. Given sufficient training data, basic architectures such as U-Net perform just as well as more advanced ones, and transfer across disease-induced domain shifts typically works well for most architectures. However, we find that image quality is a key factor determining segmentation outcomes. When optimizing for segmentation performance, investing into a well curated dataset to train a standard architecture yields better results than tuning a sophisticated architecture on a smaller dataset or one with lower image quality. We distilled the utility of architectural advances in terms of their clinical relevance therefore providing practical guidance for model choices depending on the circumstances of the clinical setting

arxiv情報

著者 Jeremiah Fadugba,Patrick Köhler,Lisa Koch,Petru Manescu,Philipp Berens
発行日 2024-06-21 09:12:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク