要約
人工知能 (AI) の加速的な進歩により、深層学習モデルはさまざまな分野に普及しましたが、その固有の不透明性が、特にヘルスケア、医学、地球科学などの重要な分野で課題を引き起こしています。
Explainable AI (XAI) は、これらの「ブラック ボックス」モデルに光を当て、意思決定プロセスの解読を支援するために登場しました。
それにもかかわらず、XAI 手法が異なれば、得られる説明も大きく異なります。
このメソッド間の変動により不確実性が増大し、ディープネットワークの予測の信頼性が低下します。
この研究では、説明の正確さとわかりやすさの両方を最大化することによって、ディープネットワークの説明可能性を高めるように設計された新しいフレームワークを初めて提案します。
私たちのフレームワークは、確立された XAI 手法からのさまざまな説明を統合し、非線形の「説明オプティマイザー」を採用して独自の最適な説明を構築します。
2D オブジェクトおよび 3D 神経科学イメージングにおけるマルチクラスおよびバイナリ分類タスクの実験を通じて、アプローチの有効性を検証します。
当社の説明オプティマイザーは、3D および 2D アプリケーションで最高のパフォーマンスを発揮する XAI 手法よりも平均してそれぞれ 155% および 63% 高い、優れた忠実度スコアを達成しました。
さらに、私たちのアプローチにより複雑さが軽減され、理解しやすさが向上しました。
私たちの結果は、特定の基準に基づいた最適な説明が導出可能であり、現在の XAI 文献におけるメソッド間の変動性の問題に対処できることを示唆しています。
要約(オリジナル)
The accelerated progress of artificial intelligence (AI) has popularized deep learning models across domains, yet their inherent opacity poses challenges, notably in critical fields like healthcare, medicine and the geosciences. Explainable AI (XAI) has emerged to shed light on these ‘black box’ models, helping decipher their decision making process. Nevertheless, different XAI methods yield highly different explanations. This inter-method variability increases uncertainty and lowers trust in deep networks’ predictions. In this study, for the first time, we propose a novel framework designed to enhance the explainability of deep networks, by maximizing both the accuracy and the comprehensibility of the explanations. Our framework integrates various explanations from established XAI methods and employs a non-linear ‘explanation optimizer’ to construct a unique and optimal explanation. Through experiments on multi-class and binary classification tasks in 2D object and 3D neuroscience imaging, we validate the efficacy of our approach. Our explanation optimizer achieved superior faithfulness scores, averaging 155% and 63% higher than the best performing XAI method in the 3D and 2D applications, respectively. Additionally, our approach yielded lower complexity, increasing comprehensibility. Our results suggest that optimal explanations based on specific criteria are derivable and address the issue of inter-method variability in the current XAI literature.
arxiv情報
著者 | Michail Mamalakis,Antonios Mamalakis,Ingrid Agartz,Lynn Egeland Mørch-Johnsen,Graham Murray,John Suckling,Pietro Lio |
発行日 | 2024-05-16 11:49:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google