要約
ゲーム理論に起源があるため、Shapleyの値、Banzhaf値、半価値などの確率的価値が説明可能なAIの中心ツールとして浮上しています。
それらは、機能の帰属、データの帰属、データ評価などに使用されます。
これらの値はすべて、正確に計算する指数時間を必要とするため、研究はモンテカルロサンプリングと線形回帰定式化の2つの手法を使用した効率的な近似方法に焦点を当てています。
この作業では、これらの両方の手法を組み合わせる新しい方法を提示します。
私たちのアプローチは、以前のアルゴリズムよりも柔軟であり、確率的値を効率的に計算できる関数ファミリに線形回帰を置き換えることができます。
これにより、Xgboostのようなツリーベースのモデルの精度を活用しながら、偏見のない推定値を生成することができます。
8つのデータセットの実験から、私たちの方法は、確率的値を推定するための最先端のパフォーマンスを提供することがわかります。
Shapleyの値の場合、メソッドの誤差は、順列シェップ(最も人気のあるモンテカルロ法)よりも6.5 \ Times $低く、カーネルシェップ(最も人気のある線形回帰法)よりも3.8 \ Times $低く、レバレッジシェップよりも2.6 \ Times $ $低い場合があります。
より一般的な確率的値のために、以前の作業からの最良の推定器よりもエラー$ 215 \ times $低いエラーを取得できます。
要約(オリジナル)
With origins in game theory, probabilistic values like Shapley values, Banzhaf values, and semi-values have emerged as a central tool in explainable AI. They are used for feature attribution, data attribution, data valuation, and more. Since all of these values require exponential time to compute exactly, research has focused on efficient approximation methods using two techniques: Monte Carlo sampling and linear regression formulations. In this work, we present a new way of combining both of these techniques. Our approach is more flexible than prior algorithms, allowing for linear regression to be replaced with any function family whose probabilistic values can be computed efficiently. This allows us to harness the accuracy of tree-based models like XGBoost, while still producing unbiased estimates. From experiments across eight datasets, we find that our methods give state-of-the-art performance for estimating probabilistic values. For Shapley values, the error of our methods can be $6.5\times$ lower than Permutation SHAP (the most popular Monte Carlo method), $3.8\times$ lower than Kernel SHAP (the most popular linear regression method), and $2.6\times$ lower than Leverage SHAP (the prior state-of-the-art Shapley value estimator). For more general probabilistic values, we can obtain error $215\times$ lower than the best estimator from prior work.
arxiv情報
著者 | R. Teal Witter,Yurong Liu,Christopher Musco |
発行日 | 2025-06-13 14:57:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google