Strategies to exploit XAI to improve classification systems

要約

Explainable Artificial Intelligence (XAI) は、AI モデルの意思決定プロセスに関する洞察を提供し、ユーザーが意思決定を超えた結果を理解できるようにすることを目的としています。
XAI の重要な目標は、意思決定プロセスの説明を提供することで AI モデルのパフォーマンスを向上させることです。
ただし、ほとんどの XAI 文献は AI システムを説明する方法に焦点を当てており、XAI メソッドを AI システムを改善するためにどのように活用できるかについてはあまり注目されていません。
この研究では、機械学習 (ML) 分類タスクで通常使用される一連のよく知られた XAI メソッドが調査され、説明を提供するだけでなくモデル自体のパフォーマンスを向上させるためにも活用できるかどうかが検証されます。
この目的のために、分類システムを改善するために説明を使用する 2 つの戦略が報告され、Fashion-MNIST、CIFAR10、および STL10 の 3 つのデータセットで経験的に評価されます。
結果は、Integrated Gradients によって構築された説明が、分類パフォーマンスを向上させるために効果的に使用できる入力特徴を強調していることを示唆しています。

要約(オリジナル)

Explainable Artificial Intelligence (XAI) aims to provide insights into the decision-making process of AI models, allowing users to understand their results beyond their decisions. A significant goal of XAI is to improve the performance of AI models by providing explanations for their decision-making processes. However, most XAI literature focuses on how to explain an AI system, while less attention has been given to how XAI methods can be exploited to improve an AI system. In this work, a set of well-known XAI methods typically used with Machine Learning (ML) classification tasks are investigated to verify if they can be exploited, not just to provide explanations but also to improve the performance of the model itself. To this aim, two strategies to use the explanation to improve a classification system are reported and empirically evaluated on three datasets: Fashion-MNIST, CIFAR10, and STL10. Results suggest that explanations built by Integrated Gradients highlight input features that can be effectively used to improve classification performance.

arxiv情報

著者 Andrea Apicella,Luca Di Lorenzo,Francesco Isgrò,Andrea Pollastro,Roberto Prevete
発行日 2023-06-09 10:38:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク