Characterizing the contribution of dependent features in XAI methods

要約

タイトル:XAI手法での従属変数の貢献の特徴化

要約:
– XAI(説明可能な人工知能)は、機械学習モデルがどのように機能して特定の結果を得るかを理解するためのツールを提供します。
– これにより、モデルの解釈性が向上し、モデルがより信頼性や透明性を持つようになります。
– しかし、提案されたXAI手法は、一般的に予測子が独立であると仮定していますが、これは必ずしも真ではありません。
– この仮定は、情報を提供する予測子のリストのようなXAIの結果の強度に影響を与えます。
– ここでは、予測子間の依存関係を考慮に入れることができる、どんなXAI手法にも適用できるシンプルで有用な方法を提案します。
– 提案された手法は、モデルに依存しない上に、共線性の存在下で各予測子の影響を計算するのが簡単であるという利点があります。

要約(オリジナル)

Explainable Artificial Intelligence (XAI) provides tools to help understanding how the machine learning models work and reach a specific outcome. It helps to increase the interpretability of models and makes the models more trustworthy and transparent. In this context, many XAI methods were proposed being SHAP and LIME the most popular. However, the proposed methods assume that used predictors in the machine learning models are independent which in general is not necessarily true. Such assumption casts shadows on the robustness of the XAI outcomes such as the list of informative predictors. Here, we propose a simple, yet useful proxy that modifies the outcome of any XAI feature ranking method allowing to account for the dependency among the predictors. The proposed approach has the advantage of being model-agnostic as well as simple to calculate the impact of each predictor in the model in presence of collinearity.

arxiv情報

著者 Ahmed Salih,Ilaria Boscolo Galazzo,Zahra Raisi-Estabragh,Steffen E. Petersen,Gloria Menegaz,Petia Radeva
発行日 2023-04-04 11:25:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.AP, stat.ML パーマリンク