Accelerating Shapley Explanation via Contributive Cooperator Selection

要約

シャプレー値はDNNモデルの予測に効果的な説明を提供するにもかかわらず、その計算は可能な全ての入力特徴量連合の列挙に依存しており、指数関数的に増大する複雑さをもたらす。この問題に対処するため、我々はDNNモデルのシャプレー説明を大幅に高速化する新規手法SHEARを提案し、その際、計算に関与する入力特徴の連合はわずかである。特徴量連合の選択は、我々の提案するシャプレー連鎖規則に従い、地道なシャプレー値からの絶対誤差を最小化することで、計算の効率と精度を両立させることが可能である。SHEARの有効性を実証するため、真正シャプレー値からの絶対誤差、説明の忠実度、実行速度など、複数の指標で総合的に評価しました。実験結果は、SHEARが様々な評価指標において、常に最先端のベースライン手法を上回ることを示しており、計算資源が限られている実世界のアプリケーションにおけるSHEARの可能性を示している。

要約(オリジナル)

Even though Shapley value provides an effective explanation for a DNN model prediction, the computation relies on the enumeration of all possible input feature coalitions, which leads to the exponentially growing complexity. To address this problem, we propose a novel method SHEAR to significantly accelerate the Shapley explanation for DNN models, where only a few coalitions of input features are involved in the computation. The selection of the feature coalitions follows our proposed Shapley chain rule to minimize the absolute error from the ground-truth Shapley values, such that the computation can be both efficient and accurate. To demonstrate the effectiveness, we comprehensively evaluate SHEAR across multiple metrics including the absolute error from the ground-truth Shapley value, the faithfulness of the explanations, and running speed. The experimental results indicate SHEAR consistently outperforms state-of-the-art baseline methods across different evaluation metrics, which demonstrates its potentials in real-world applications where the computational resource is limited.

arxiv情報

著者 Guanchu Wang,Yu-Neng Chuang,Mengnan Du,Fan Yang,Quan Zhou,Pushkar Tripathi,Xuanting Cai,Xia Hu
発行日 2023-03-06 16:08:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.GT, cs.LG パーマリンク