Efficient GNN Explanation via Learning Removal-based Attribution

要約

グラフ ニューラル ネットワーク (GNN) は実世界のアプリケーションで広く使用されているため、モデルの説明はユーザーだけでなく法規制によっても必要とされています。
しかし、説明を生成する際に高い忠実度と低い計算コストを同時に達成することは、現在の方法にとって課題でした。
この研究では、この問題に対処するために、LeArn Removal-based Attribution (LARA) と呼ばれる GNN 説明のフレームワークを提案します。
具体的には、除去ベースのアトリビューションを導入し、解釈可能性の忠実度との関連性を理論的および実験的に実証します。
LARA の説明者は、除去ベースの属性を生成することを学習し、忠実度の高い説明を提供できるようにします。
サブグラフ サンプリングの戦略は、トレーニング プロセスのスケーラビリティを向上させるために LARA で設計されています。
導入では、LARA はフィードフォワード パスを通じて説明を効率的に生成できます。
6 つのデータセットに対して、他の最先端の GNN 説明手法を使用してアプローチをベンチマークします。
結果は、効率と忠実性の両方に関するフレームワークの有効性を強調しています。
特に、LARA は、大規模なデータセット ogbn-arxiv (160,000 ノードおよび 1,000 万エッジ以上) に対する最先端の手法よりも 3.5 倍高速で高い忠実度を実現しており、実世界のアプリケーションでその大きな可能性を示しています。
私たちのソースコードは https://anonymous.4open.science/r/LARA-10D8/README.md で入手できます。

要約(オリジナル)

As Graph Neural Networks (GNNs) have been widely used in real-world applications, model explanations are required not only by users but also by legal regulations. However, simultaneously achieving high fidelity and low computational costs in generating explanations has been a challenge for current methods. In this work, we propose a framework of GNN explanation named LeArn Removal-based Attribution (LARA) to address this problem. Specifically, we introduce removal-based attribution and demonstrate its substantiated link to interpretability fidelity theoretically and experimentally. The explainer in LARA learns to generate removal-based attribution which enables providing explanations with high fidelity. A strategy of subgraph sampling is designed in LARA to improve the scalability of the training process. In the deployment, LARA can efficiently generate the explanation through a feed-forward pass. We benchmark our approach with other state-of-the-art GNN explanation methods on six datasets. Results highlight the effectiveness of our framework regarding both efficiency and fidelity. In particular, LARA is 3.5 times faster and achieves higher fidelity than the state-of-the-art method on the large dataset ogbn-arxiv (more than 160K nodes and 1M edges), showing its great potential in real-world applications. Our source code is available at https://anonymous.4open.science/r/LARA-10D8/README.md.

arxiv情報

著者 Yao Rong,Guanchu Wang,Qizhang Feng,Ninghao Liu,Zirui Liu,Enkelejda Kasneci,Xia Hu
発行日 2023-06-09 08:54:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク