要約
SHAP (SHApley Additive exPlanations) は、入力に対する機械学習モデルの予測をその特徴に帰する一般的な方法となっています。
SHAP の主な課題の 1 つは計算時間です。
Shapley 値を正確に計算するには、指数関数的な時間計算量が必要です。
したがって、多くの近似方法が文献で提案されています。
この論文では、SHAP を多項式時間で正確に、または加法性とダミーの仮定 (例: カーナル SHAP とベースライン SHAP) を満たす SHAP 定義に対してさらに高速に計算できる方法を提案します。
私たちは、既知の関数分解、モデルの既知の次数 (モデル内の相互作用の最高次数として定義される)、または未知の次数など、さまざまなレベルのモデル構造情報を使用してモデルに対してさまざまな戦略を開発します。
最初のケースでは、加法的なプロパティと、低次関数コンポーネントから SHAP を計算する方法を示します。
2 番目のケースでは、SHAP を多項式時間で計算できる式を導き出します。
どちらの方法でも正確な SHAP 結果が得られます。
最後に、モデルの次数さえ不明な場合は、Shapley 値を近似する反復方法を提案します。
私たちが提案する 3 つの方法は、実際のケースのようにモデルの次数が高くない場合に計算効率が高くなります。
シミュレーション研究を使用して、Castor & Gomez (2008) で提案されたサンプリング手法と比較して、提案された方法の有効性を実証します。
要約(オリジナル)
SHAP (SHapley Additive exPlanations) has become a popular method to attribute the prediction of a machine learning model on an input to its features. One main challenge of SHAP is the computation time. An exact computation of Shapley values requires exponential time complexity. Therefore, many approximation methods are proposed in the literature. In this paper, we propose methods that can compute SHAP exactly in polynomial time or even faster for SHAP definitions that satisfy our additivity and dummy assumptions (eg, kernal SHAP and baseline SHAP). We develop different strategies for models with different levels of model structure information: known functional decomposition, known order of model (defined as highest order of interaction in the model), or unknown order. For the first case, we demonstrate an additive property and a way to compute SHAP from the lower-order functional components. For the second case, we derive formulas that can compute SHAP in polynomial time. Both methods yield exact SHAP results. Finally, if even the order of model is unknown, we propose an iterative way to approximate Shapley values. The three methods we propose are computationally efficient when the order of model is not high which is typically the case in practice. We compare with sampling approach proposed in Castor & Gomez (2008) using simulation studies to demonstrate the efficacy of our proposed methods.
arxiv情報
著者 | Linwei Hu,Ke Wang |
発行日 | 2023-09-05 17:48:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google