Integrating Non-Linear Radon Transformation for Diabetic Retinopathy Grading

要約

糖尿病性網膜症は、患者の視力と全体的な健康に重大な脅威をもたらす深刻な眼の合併症です。
視力喪失を防ぐためには、早期の検出と正確なグレーディングが不可欠です。
現在の自動格付け方法は、網膜の眼底画像に適用される深い学習に大きく依存していますが、これらの画像の病変の複雑で不規則なパターンは、形状と分布が異なるため、微妙な変化をキャプチャすることが困難になります。
この研究では、糖尿病性網膜症の検出と等級付けを強化するために、非線形のラデックス変換シノグラム画像を従来の眼底画像と統合する多代語の深い学習フレームワークであるRadfuseを紹介します。
ラドン変換の最適化された非線形拡張であるRadex変換は、複雑な網膜病変パターンをキャプチャするシノグラム表現を生成します。
LadFuseは、空間情報と変換されたドメイン情報の両方を活用することにより、深い学習モデルで利用可能な機能セットを豊かにし、重大度レベルの区別を改善します。
Aptos-2019とDDRの2つのベンチマークデータセットで、3つの畳み込みニューラルネットワーク(CNNS)を使用して、ResNext-50、MobileNETV2、およびVGG19を使用して、広範な実験を実施しました。
Radfuseは、3つのCNNアーキテクチャすべてにわたってFundus-Imageのみのモデルに対して大幅な改善を示し、両方のデータセットで最先端の方法を上回った。
5つの段階で重症度のグレーディングの場合、Radfuseは93.24%の2次重量カッパ、87.07%の精度、F1スコア87.17%を達成しました。
健康と糖尿病の網膜症の症例の間のバイナリ分類では、この方法は99.09%の精度、98.58%の精度、99.6%のリコールに達し、以前に確立されたモデルを上回りました。
これらの結果は、複雑な非線形特徴をキャプチャするRadfuseの能力を示しており、糖尿病性網膜症の分類を進め、医療画像分析における高度な数学的変換の統合を促進します。

要約(オリジナル)

Diabetic retinopathy is a serious ocular complication that poses a significant threat to patients’ vision and overall health. Early detection and accurate grading are essential to prevent vision loss. Current automatic grading methods rely heavily on deep learning applied to retinal fundus images, but the complex, irregular patterns of lesions in these images, which vary in shape and distribution, make it difficult to capture subtle changes. This study introduces RadFuse, a multi-representation deep learning framework that integrates non-linear RadEx-transformed sinogram images with traditional fundus images to enhance diabetic retinopathy detection and grading. Our RadEx transformation, an optimized non-linear extension of the Radon transform, generates sinogram representations to capture complex retinal lesion patterns. By leveraging both spatial and transformed domain information, RadFuse enriches the feature set available to deep learning models, improving the differentiation of severity levels. We conducted extensive experiments on two benchmark datasets, APTOS-2019 and DDR, using three convolutional neural networks (CNNs): ResNeXt-50, MobileNetV2, and VGG19. RadFuse showed significant improvements over fundus-image-only models across all three CNN architectures and outperformed state-of-the-art methods on both datasets. For severity grading across five stages, RadFuse achieved a quadratic weighted kappa of 93.24%, an accuracy of 87.07%, and an F1-score of 87.17%. In binary classification between healthy and diabetic retinopathy cases, the method reached an accuracy of 99.09%, precision of 98.58%, and recall of 99.6%, surpassing previously established models. These results demonstrate RadFuse’s capacity to capture complex non-linear features, advancing diabetic retinopathy classification and promoting the integration of advanced mathematical transforms in medical image analysis.

arxiv情報

著者 Farida Mohsen,Samir Belhaouari,Zubair Shah
発行日 2025-04-22 13:27:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク