EiG-Search: Generating Edge-Induced Subgraphs for GNN Explanation in Linear Time

要約

グラフ ニューラル ネットワーク (GNN) の予測を理解して説明することは、その安全性と信頼性を高めるために重要です。
サブグラフレベルの説明は、その直観的な魅力から注目を集めています。
ただし、既存のサブグラフレベルのエクスプレナラーのほとんどは、複雑な検索プロセスにより、GNN を説明する際に効率性の課題に直面しています。
重要な課題は、透明性を確保しながら直観性と効率性のバランスを見つけることです。
さらに、これらの説明者は通常、ノードごとにサブグラフを誘導します。これにより、サブグラフレベルの説明で直感的ではない切断されたノードが導入されたり、多くの重要なサブグラフ構造が省略されたりする可能性があります。
この論文では、エッジによる部分グラフ説明の誘導が他の部分グラフ誘導手法よりも包括的であることを明らかにします。
また、異なるデータ インスタンスには異なる重要な部分構造が含まれる可能性があるため、データ インスタンスごとにサブグラフの説明サイズを決定する必要性も強調します。
これらの考慮事項に基づいて、EiG-Search と呼ばれるトレーニング不要のアプローチを導入します。
エッジ誘発サブグラフに対して効率的な線形時間検索アルゴリズムを採用し、強化された勾配ベースの重要度によってエッジがランク付けされます。
私たちは合計 7 つのデータセットに対して広範な実験を実施し、主要なベースラインを上回る優れたパフォーマンスと効率を量的および質的に実証しました。

要約(オリジナル)

Understanding and explaining the predictions of Graph Neural Networks (GNNs), is crucial for enhancing their safety and trustworthiness. Subgraph-level explanations are gaining attention for their intuitive appeal. However, most existing subgraph-level explainers face efficiency challenges in explaining GNNs due to complex search processes. The key challenge is to find a balance between intuitiveness and efficiency while ensuring transparency. Additionally, these explainers usually induce subgraphs by nodes, which may introduce less-intuitive disconnected nodes in the subgraph-level explanations or omit many important subgraph structures. In this paper, we reveal that inducing subgraph explanations by edges is more comprehensive than other subgraph inducing techniques. We also emphasize the need of determining the subgraph explanation size for each data instance, as different data instances may involve different important substructures. Building upon these considerations, we introduce a training-free approach, named EiG-Search. We employ an efficient linear-time search algorithm over the edge-induced subgraphs, where the edges are ranked by an enhanced gradient-based importance. We conduct extensive experiments on a total of seven datasets, demonstrating its superior performance and efficiency both quantitatively and qualitatively over the leading baselines.

arxiv情報

著者 Shengyao Lu,Bang Liu,Keith G. Mills,Jiao He,Di Niu
発行日 2024-05-16 14:55:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク