要約
近年、機械学習ベースの臨床意思決定支援システム (CDSS) が、いくつかの病状の分析において重要な役割を果たしています。
その有望な機能にもかかわらず、AI モデルの透明性の欠如は、特に信頼性が必須の側面である医療の状況において、重大な課題を引き起こしています。
ただし、説明可能性は正確さに反比例するようです。
このため、予測精度を損なうことなく透明性を達成することが依然として重要な課題となっています。
この論文では、放射線特徴の固有の解釈可能性を備えた CNN 由来の特徴の予測力を強化する新しい方法、すなわち Rad4XCNN を紹介します。
Rad4XCNN は、ラジオミクスによって CNN から導出された特徴にわかりやすい意味を関連付けることにより、顕著性マップに基づく従来の手法から分岐し、視覚化マップを超えた説明手法に新しい視点を提供します。
乳がん分類タスクをケーススタディとして使用し、内部および外部検証用のオンライン データセットと 2 つの社内データセットを含む超音波画像データセットで Rad4XCNN を評価しました。
いくつかの重要な結果は次のとおりです。 i) CNN 由来の特徴は、ViT 由来およびラジオミック特徴と比較した場合に、より堅牢な精度を保証します。
ii) 従来の視覚化マップによる説明方法には、いくつかの落とし穴があります。
iii) Rad4XCNN は、説明可能性のためにモデルの精度を犠牲にしません。
iv) Rad4XCNN は、医師が全体的な洞察と所見を抽出できるようにする全体的な説明を提供します。
私たちの方法は、説明可能性と精度のトレードオフに関連するいくつかの懸念を軽減できます。
この研究は、精度に影響を与えずにモデルを説明するための新しい方法を提案することの重要性を強調しました。
要約(オリジナル)
In recent years, machine learning-based clinical decision support systems (CDSS) have played a key role in the analysis of several medical conditions. Despite their promising capabilities, the lack of transparency in AI models poses significant challenges, particularly in medical contexts where reliability is a mandatory aspect. However, it appears that explainability is inversely proportional to accuracy. For this reason, achieving transparency without compromising predictive accuracy remains a key challenge. This paper presents a novel method, namely Rad4XCNN, to enhance the predictive power of CNN-derived features with the inherent interpretability of radiomic features. Rad4XCNN diverges from conventional methods based on saliency maps, by associating intelligible meaning to CNN-derived features by means of Radiomics, offering new perspectives on explanation methods beyond visualization maps. Using a breast cancer classification task as a case study, we evaluated Rad4XCNN on ultrasound imaging datasets, including an online dataset and two in-house datasets for internal and external validation. Some key results are: i) CNN-derived features guarantee more robust accuracy when compared against ViT-derived and radiomic features; ii) conventional visualization map methods for explanation present several pitfalls; iii) Rad4XCNN does not sacrifice model accuracy for their explainability; iv) Rad4XCNN provides a global explanation enabling the physician to extract global insights and findings. Our method can mitigate some concerns related to the explainability-accuracy trade-off. This study highlighted the importance of proposing new methods for model explanation without affecting their accuracy.
arxiv情報
著者 | Francesco Prinzi,Carmelo Militello,Calogero Zarcaro,Tommaso Vincenzo Bartolotta,Salvatore Gaglio,Salvatore Vitabile |
発行日 | 2025-01-08 14:42:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google