CT-xCOV: a CT-scan based Explainable Framework for COVid-19 diagnosis

要約

この研究では、CT スキャンの深層学習 (DL) を使用した、新型コロナウイルス感染症 (COVID-19) 診断のための説明可能なフレームワークである CT-xCOV が開発されています。
CT-xCOV は、肺のセグメンテーションから COVID-19 の検出と検出モデルの予測の説明まで、エンドツーエンドのアプローチを採用しています。
肺のセグメンテーションには、よく知られている U-Net モデルを使用しました。
COVID-19 の検出については、標準 CNN、ResNet50、DenseNet121 の 3 つの異なる CNN アーキテクチャを比較しました。
検出後、視覚的および文字による説明が提供されます。
視覚的に説明するために、Grad-Cam、Integrated Gradient (IG)、および LIME という 3 つの異なる XAI 技術を適用しました。
肺による感染の割合を計算することにより、テキストによる説明が追加されます。
使用される XAI 技術のパフォーマンスを評価するために、視覚化出力とグラウンド トゥルース感染の間の類似性を測定する、グラウンド トゥルース ベースの評価方法を提案します。
実行された実験は、適用された DL モデルが良好な結果を達成したことを示しています。
U-Net セグメンテーション モデルは、高い Dice 係数 (98%) を達成しました。
私たちが提案した分類モデル (標準 CNN) のパフォーマンスは、5 分割相互検証 (acc 98.40% および f1 スコア 98.23%) を使用して検証されました。
最後に、XAI 技術の比較結果は、Grad-Cam が、新型コロナウイルス感染症陽性スキャンで Dice 係数 55% を達成することにより、LIME および IG と比較して最良の説明を与えることを示しています。これに対し、Grad-Cam は、XAI 技術で得られた 29% および 24% と比較します。
それぞれIGとLIME。
この論文で使用されているコードとデータセットは、GitHub リポジトリ [1] で入手できます。

要約(オリジナル)

In this work, CT-xCOV, an explainable framework for COVID-19 diagnosis using Deep Learning (DL) on CT-scans is developed. CT-xCOV adopts an end-to-end approach from lung segmentation to COVID-19 detection and explanations of the detection model’s prediction. For lung segmentation, we used the well-known U-Net model. For COVID-19 detection, we compared three different CNN architectures: a standard CNN, ResNet50, and DenseNet121. After the detection, visual and textual explanations are provided. For visual explanations, we applied three different XAI techniques, namely, Grad-Cam, Integrated Gradient (IG), and LIME. Textual explanations are added by computing the percentage of infection by lungs. To assess the performance of the used XAI techniques, we propose a ground-truth-based evaluation method, measuring the similarity between the visualization outputs and the ground-truth infections. The performed experiments show that the applied DL models achieved good results. The U-Net segmentation model achieved a high Dice coefficient (98%). The performance of our proposed classification model (standard CNN) was validated using 5-fold cross-validation (acc of 98.40% and f1-score 98.23%). Lastly, the results of the comparison of XAI techniques show that Grad-Cam gives the best explanations compared to LIME and IG, by achieving a Dice coefficient of 55%, on COVID-19 positive scans, compared to 29% and 24% obtained by IG and LIME respectively. The code and the dataset used in this paper are available in the GitHub repository [1].

arxiv情報

著者 Ismail Elbouknify,Afaf Bouhoute,Khalid Fardousse,Ismail Berrada,Abdelmajid Badri
発行日 2023-11-24 13:14:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク