要約
タイトル:胸部X線写真におけるDense Convolutional Networkを用いた多ラベル分類による胸部疾患の診断
要約:
– 従来のX線画像における病理診断手法は熟練した人間の解釈に大きく依存しており、また時間がかかるものであった。
– 深層学習技術の発展により、自動的な疾患診断システムの開発が可能になったが、その性能はモデルの質と、提供する解釈性のレベルに依存する。
– 本論文では、胸部X線写真に対する多ラベル疾患診断モデルを、Dense Convolutional Neural Network(DenseNet)を用いたものとして提案する。
– モデルの可視化性を確保するためにGRADCAMを用いた。
– モデルの性能評価には、面積特性曲線下面積(AUC)をはじめとするさまざまな定量的指標を用いた。
– 提案モデルは、正面からのX線写真を用いてトレーニングされ、カルディオメガリのAUCスコアが0.896で、正確度が0.826と最高のスコアを記録した。
– また、モデルの予測に対する視覚化として、X線写真上でモデルが予測に注目した領域を示すヒートマップを生成し、また測定の信頼性を確保するために信頼区間を提示した。
– 提案された自動疾患診断モデルは、多ラベル疾患診断タスクにおいて高い性能指標を示し、モデルの予測を可視化して解釈性を提供した。
要約(オリジナル)
Traditional methods of identifying pathologies in X-ray images rely heavily on skilled human interpretation and are often time-consuming. The advent of deep learning techniques has enabled the development of automated disease diagnosis systems, but the performance of such systems is dependent on the quality of the model and the level of interpretability it provides. In this paper, we propose a multi-label disease diagnosis model for chest X-rays using a dense convolutional neural network (DenseNet) and model interpretability using GRADCAM. We trained our model using frontal X-rays and evaluated its performance using various quantitative metrics, including the area under the receiver operating characteristic curve (AUC). Our proposed model achieved the highest AUC score of 0.896 for the condition Cardiomegaly with an accuracy of 0.826, while the lowest AUC score was obtained for Nodule, at 0.655 with an accuracy of 0.66. To promote model interpretability and build trust in decision making, we generated heatmaps on X-rays to visualize the regions where the model paid attention to make certain predictions. Additionally, we estimated the uncertainty in model predictions by presenting the confidence interval of our measurements. Our proposed automated disease diagnosis model obtained high performance metrics in multi-label disease diagnosis tasks and provided visualization of model predictions for model interpretability.
arxiv情報
著者 | Dipkamal Bhusal,Sanjeeb Prasad Panday |
発行日 | 2023-05-07 14:23:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI