How Reliable and Stable are Explanations of XAI Methods?

要約

社会生活を営む人間の日常生活において、ブラックボックスモデルの利用が増加している。この増加に伴い、モデルが特定の予測を行う方法に関する追加説明を生成することを目的とした、説明可能な人工知能(XAI)手法が出現している。この意味で、Dalex、Eli5、eXirt、Lofo、Shapなどの手法が、不可知論的な方法でブラックボックスモデルの説明を生成するためのさまざまな提案や方法論として登場した。これらの手法の出現とともに、「XAI手法の信頼性と安定性は?この主要な疑問に光を当てることを目的として、本研究では、糖尿病データセットと4つの異なる機械学習モデル(LGBM、MLP、DT、KNN)を用いて実験を行い、テストデータに異なるレベルの摂動を作成し、最後に、摂動に直面したときの安定性を測定するために、モデルの信頼性に関するeXirtメソッドからの説明と、言及されたすべてのXAIメソッドからの特徴関連性ランクを生成するパイプラインを作成した。その結果、eXirtは使用されたすべてのXAI手法の中で最も信頼性の高いモデルを特定できることがわかった。また、現在のXAI手法は、ある特定の手法を除いて、摂動に敏感であることも判明した。

要約(オリジナル)

Black box models are increasingly being used in the daily lives of human beings living in society. Along with this increase, there has been the emergence of Explainable Artificial Intelligence (XAI) methods aimed at generating additional explanations regarding how the model makes certain predictions. In this sense, methods such as Dalex, Eli5, eXirt, Lofo and Shap emerged as different proposals and methodologies for generating explanations of black box models in an agnostic way. Along with the emergence of these methods, questions arise such as ‘How Reliable and Stable are XAI Methods?’. With the aim of shedding light on this main question, this research creates a pipeline that performs experiments using the diabetes dataset and four different machine learning models (LGBM, MLP, DT and KNN), creating different levels of perturbations of the test data and finally generates explanations from the eXirt method regarding the confidence of the models and also feature relevances ranks from all XAI methods mentioned, in order to measure their stability in the face of perturbations. As a result, it was found that eXirt was able to identify the most reliable models among all those used. It was also found that current XAI methods are sensitive to perturbations, with the exception of one specific method.

arxiv情報

著者 José Ribeiro,Lucas Cardoso,Vitor Santos,Eduardo Carvalho,Níkolas Carneiro,Ronnie Alves
発行日 2024-07-03 13:47:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, I.2.6 パーマリンク