GNNShap: Scalable and Accurate GNN Explanation using Shapley Values

要約

グラフ ニューラル ネットワーク (GNN) は、科学分野全体で多くのアプリケーションに使用される人気のあるグラフの機械学習モデルです。
ただし、GNN はブラック ボックス モデルとみなされ、モデルがどのように予測を行うかを理解するのは困難です。
ゲーム理論のシャプレー値アプローチは他の分野でよく使われる説明方法ですが、グラフについては十分に研究されていません。
一部の研究では、シャプレー値に基づく GNN 説明を提案していますが、いくつかの制限があります。研究では、シャプレー値を近似するために限られたサンプルを考慮しています。
小規模および大規模な連合サイズに主に焦点を当てているものもあり、他の説明方法よりも一桁遅いため、中程度のサイズのグラフにも適用できません。
この研究では、グラフのより自然な説明とより詳細な説明を提供するため、エッジの説明を提供する GNNShap を提案します。
すべての連合サイズからサンプリングし、GPU でサンプリングを並列化し、バッチ処理によってモデル予測を高速化することで、この制限を克服しました。
GNNShap は、現実世界のデータセットのベースラインよりも優れた忠実度スコアと迅速な説明を提供します。
コードは https://github.com/HipGraph/GNNSap で入手できます。

要約(オリジナル)

Graph neural networks (GNNs) are popular machine learning models for graphs with many applications across scientific domains. However, GNNs are considered black box models, and it is challenging to understand how the model makes predictions. Game theoric Shapley value approaches are popular explanation methods in other domains but are not well-studied for graphs. Some studies have proposed Shapley value based GNN explanations, yet they have several limitations: they consider limited samples to approximate Shapley values; some mainly focus on small and large coalition sizes, and they are an order of magnitude slower than other explanation methods, making them inapplicable to even moderate-size graphs. In this work, we propose GNNShap, which provides explanations for edges since they provide more natural explanations for graphs and more fine-grained explanations. We overcome the limitations by sampling from all coalition sizes, parallelizing the sampling on GPUs, and speeding up model predictions by batching. GNNShap gives better fidelity scores and faster explanations than baselines on real-world datasets. The code is available at https://github.com/HipGraph/GNNShap.

arxiv情報

著者 Selahattin Akkas,Ariful Azad
発行日 2024-02-23 15:49:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI パーマリンク