Explainability is NOT a Game

要約

説明可能な人工知能 (XAI) は、人間の意思決定者が複雑な機械学習 (ML) モデルを理解できるようにすることを目的としています。
XAI の特徴の 1 つは、相対的な特徴の重要性の尺度であり、これは Shapley 値の使用によって理論的に正当化されます。
このペーパーは最近の研究に基づいており、予測に無関係な特徴により多くの重要性を割り当て、予測に関連する特徴にはより低い重要性を割り当てることで、シャプレー値が相対的な特徴の重要性の誤解を招く尺度を提供する理由について単純な議論を提供します。
これらの結果の重要性は、急速に成長する一か八かのアプリケーション領域において、相対的な特徴の重要性を測る多くの提案された使用法に効果的に挑戦していることです。

要約(オリジナル)

Explainable artificial intelligence (XAI) aims to help human decision-makers in understanding complex machine learning (ML) models. One of the hallmarks of XAI are measures of relative feature importance, which are theoretically justified through the use of Shapley values. This paper builds on recent work and offers a simple argument for why Shapley values can provide misleading measures of relative feature importance, by assigning more importance to features that are irrelevant for a prediction, and assigning less importance to features that are relevant for a prediction. The significance of these results is that they effectively challenge the many proposed uses of measures of relative feature importance in a fast-growing range of high-stakes application domains.

arxiv情報

著者 Joao Marques-Silva,Xuanxiang Huang
発行日 2024-02-09 13:29:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク