要約
医療診断における深層学習モデルの応用は、近年かなりの有効性を示しています。
それにもかかわらず、注目すべき制限には、意思決定プロセスにおける説明可能性の本質的な欠如が含まれます。
この研究では、解釈可能性の堅牢性を強化することで、このような制約に対処します。
主な焦点は、LIME ライブラリと LIME 画像説明者によって生成される説明を改良することに向けられています。
これは、シナリオ固有のルールに基づいた後処理メカニズムを通じて実現されます。
脳腫瘍の検出に関連する公的にアクセス可能なデータセットを使用して、複数の実験が行われています。
私たちが提案するポストヒューリスティックアプローチは、医療診断の文脈において、より堅牢で具体的な結果をもたらす重要な進歩を示しています。
要約(オリジナル)
The application of deep learning models in medical diagnosis has showcased considerable efficacy in recent years. Nevertheless, a notable limitation involves the inherent lack of explainability during decision-making processes. This study addresses such a constraint, by enhancing the interpretability robustness. The primary focus is directed towards refining the explanations generated by the LIME Library and LIME image explainer. This is achieved throuhg post-processing mechanisms, based on scenario-specific rules. Multiple experiments have been conducted using publicly accessible datasets related to brain tumor detection. Our proposed post-heuristic approach demonstrates significant advancements, yielding more robust and concrete results, in the context of medical diagnosis.
arxiv情報
著者 | Konstantinos Pasvantis,Eftychios Protopapadakis |
発行日 | 2024-04-30 13:59:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google