Interpretable breast cancer classification using CNNs on mammographic images

要約

ディープラーニングモデルは、乳がんの分類において有望な結果を達成していますが、その「ブラックボックス」の性質により、解釈可能性に関する懸念が生じています。
この研究は、マンモグラム分類のための畳み込みニューラル ネットワーク (CNN) の意思決定プロセスに関する洞察を得るという重要なニーズに対処し、特に CNN による乳がん予測の根本的な理由に焦点を当てています。
マンモグラフィー画像解析協会 (MIAS) データセットでトレーニングされた CNN について、説明の深さと計算効率の観点から事後解釈技術 LIME、Grad-CAM、およびカーネル SHAP を比較しました。
この分析の結果は、特に Grad-CAM が CNN の動作に関する包括的な洞察を提供し、正常、良性、および悪性の乳房組織における独特のパターンを明らかにすることを示しています。
臨床現場での機械学習モデルと解釈技術の使用に対する現在の発見の意味について説明します。

要約(オリジナル)

Deep learning models have achieved promising results in breast cancer classification, yet their ‘black-box’ nature raises interpretability concerns. This research addresses the crucial need to gain insights into the decision-making process of convolutional neural networks (CNNs) for mammogram classification, specifically focusing on the underlying reasons for the CNN’s predictions of breast cancer. For CNNs trained on the Mammographic Image Analysis Society (MIAS) dataset, we compared the post-hoc interpretability techniques LIME, Grad-CAM, and Kernel SHAP in terms of explanatory depth and computational efficiency. The results of this analysis indicate that Grad-CAM, in particular, provides comprehensive insights into the behavior of the CNN, revealing distinctive patterns in normal, benign, and malignant breast tissue. We discuss the implications of the current findings for the use of machine learning models and interpretation techniques in clinical practice.

arxiv情報

著者 Ann-Kristin Balve,Peter Hendrix
発行日 2024-08-23 15:25:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク