The Inadequacy of Shapley Values for Explainability

要約

このホワイト ペーパーでは、説明可能な AI (XAI) で Shapley 値を使用すると、予測のための特徴の相対的な重要性について誤解を招く可能性のある情報が必然的に得られる理由について、厳密な議論を展開します。
具体的には、この論文は、シャプレー値によって決定された特徴の相対的な重要性が、予測に無関係であることが証明されている特徴の重要性を誤って割り当て、関連性が証明されている特徴の重要性を低くする、分類子および関連する予測が存在することを示しています。
予測のために。
この論文はまた、最近の複雑さの結果を考えると、分類子のいくつかの制限されたクラスの場合に厳密な特徴属性値を計算するための効率的なアルゴリズムの存在は、せいぜいありそうにないと見なされるべきであると主張しています。

要約(オリジナル)

This paper develops a rigorous argument for why the use of Shapley values in explainable AI (XAI) will necessarily yield provably misleading information about the relative importance of features for predictions. Concretely, this paper demonstrates that there exist classifiers, and associated predictions, for which the relative importance of features determined by the Shapley values will incorrectly assign more importance to features that are provably irrelevant for the prediction, and less importance to features that are provably relevant for the prediction. The paper also argues that, given recent complexity results, the existence of efficient algorithms for the computation of rigorous feature attribution values in the case of some restricted classes of classifiers should be deemed unlikely at best.

arxiv情報

著者 Xuanxiang Huang,Joao Marques-Silva
発行日 2023-02-16 09:19:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク