A New Baseline Assumption of Integated Gradients Based on Shaply value

要約

ディープ ニューラル ネットワーク (DNN) をデコードする作業には、多くの場合、その予測を入力特徴にマッピングし直すことが含まれます。
これらの手法の中で、Integrated Gradients (IG) が重要な手法として浮上しています。
IG での適切なベースラインの選択は、さまざまな設定におけるモデル予測の意味のある公平な説明を作成するために重要です。
ただし、単一のベースラインを使用する標準的なアプローチでは不十分な場合が多く、複数のベースラインが必要になります。
IG と Aumann-Shapley Value の間の自然なつながりを活用して、ベースライン設計に関する新しい見通しを提供します。
理論的には、特定の仮定の下で、一連のベースラインがシャプレー値で説明される連合と一致することを示します。
この洞察に基づいて、私たちは、比例サンプリングを使用して Shapley 値の計算プロセスを反映する Shapley Integrated Gradients (SIG) と呼ばれる新しいベースライン手法を開発しました。
GridWorld で実行されたシミュレーションにより、SIG が Shapley 値の分布を効果的にエミュレートしていることが検証されます。
さらに、さまざまな画像処理タスクに関する実証テストでは、SIG が、特徴寄与のより正確な推定値を提供し、さまざまなアプリケーションにわたって一貫した説明を提供し、追加の計算需要を無視して多様なデータ型への適応性を確保することにより、従来の IG ベースライン手法を超えていることが示されています。

要約(オリジナル)

Efforts to decode deep neural networks (DNNs) often involve mapping their predictions back to the input features. Among these methods, Integrated Gradients (IG) has emerged as a significant technique. The selection of appropriate baselines in IG is crucial for crafting meaningful and unbiased explanations of model predictions in diverse settings. The standard approach of utilizing a single baseline, however, is frequently inadequate, prompting the need for multiple baselines. Leveraging the natural link between IG and the Aumann-Shapley Value, we provide a novel outlook on baseline design. Theoretically, we demonstrate that under certain assumptions, a collection of baselines aligns with the coalitions described by the Shapley Value. Building on this insight, we develop a new baseline method called Shapley Integrated Gradients (SIG), which uses proportional sampling to mirror the Shapley Value computation process. Simulations conducted in GridWorld validate that SIG effectively emulates the distribution of Shapley Values. Moreover, empirical tests on various image processing tasks show that SIG surpasses traditional IG baseline methods by offering more precise estimates of feature contributions, providing consistent explanations across different applications, and ensuring adaptability to diverse data types with negligible additional computational demand.

arxiv情報

著者 Shuyang Liu,Zixuan Chen,Ge Shi,Ji Wang,Changjie Fan,Yu Xiong,Runze Wu Yujing Hu,Ze Ji,Yang Gao
発行日 2024-05-20 13:44:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク