Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures

要約

Covid-19のパンデミックは、緊張した医療リソースを緊張させ、機械学習がどのように医師の負担を軽減し、診断に貢献できるかについての議論を促しました。
胸部X線(CXR)はCOVID-19の診断に使用されますが、CXRからの患者の状態の重症度を予測する研究はほとんどありません。
この研究では、3つのソースを融合させ、重大度回帰と分類タスクの両方でImagENETおよびCXR定められたモデルと視覚変圧器(VIT)を使用した転送学習の有効性を調査することにより、大きな共ビッド重症度データセットを生成します。
前処理されたDensenet161モデルは、3つのクラスの重大度予測問題で最高のパフォーマンスを発揮し、全体で80%の精度、77.3%、83.9%、および70%が軽度、中程度、重度の症例でそれぞれに達しました。
VITには、放射線科医予測の重症度スコアと比較して、平均絶対誤差が0.5676の最高の回帰結果がありました。
プロジェクトのソースコードは公開されています。

要約(オリジナル)

The COVID-19 pandemic strained healthcare resources and prompted discussion about how machine learning can alleviate physician burdens and contribute to diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few studies predict the severity of a patient’s condition from CXRs. In this study, we produce a large COVID severity dataset by merging three sources and investigate the efficacy of transfer learning using ImageNet- and CXR-pretrained models and vision transformers (ViTs) in both severity regression and classification tasks. A pretrained DenseNet161 model performed the best on the three class severity prediction problem, reaching 80% accuracy overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases, respectively. The ViT had the best regression results, with a mean absolute error of 0.5676 compared to radiologist-predicted severity scores. The project’s source code is publicly available.

arxiv情報

著者 Luis Lara,Lucia Eve Berger,Rajesh Raju
発行日 2025-02-28 14:34:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク