Accurate Shapley Values for explaining tree-based models

要約

Shapley Values (SV) は説明可能な AI で広く使用されていますが、その推定と解釈は困難であり、不正確な推論や説明につながる可能性があります。
開始点として、SV の不変原則を思い出し、使用されるエンコーディングに特に敏感なカテゴリ変数の SV を計算するための正しいアプローチを導き出します。
ツリーベースのモデルの場合、ツリー構造を効率的に活用し、最先端の方法よりも正確な Shapley 値の 2 つの推定器を導入します。
シミュレーションと比較は最先端のアルゴリズムを使用して実行され、私たちのアプローチの実際的な利点が示されています。
最後に、局所的な説明としてシャプレー値の限界について説明します。
これらのメソッドは Python パッケージとして利用できます。

要約(オリジナル)

Shapley Values (SV) are widely used in explainable AI, but their estimation and interpretation can be challenging, leading to inaccurate inferences and explanations. As a starting point, we remind an invariance principle for SV and derive the correct approach for computing the SV of categorical variables that are particularly sensitive to the encoding used. In the case of tree-based models, we introduce two estimators of Shapley Values that exploit the tree structure efficiently and are more accurate than state-of-the-art methods. Simulations and comparisons are performed with state-of-the-art algorithms and show the practical gain of our approach. Finally, we discuss the limitations of Shapley Values as a local explanation. These methods are available as a Python package.

arxiv情報

著者 Salim I. Amoukou,Nicolas J-B. Brunel,Tangi Salaün
発行日 2023-05-31 17:19:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク