Iterative Graph Neural Network Enhancement via Frequent Subgraph Mining of Explanations

要約

私たちは、説明拡張グラフ学習 (EEGL) と呼ばれる、ノード分類のためのグラフ ニューラル ネットワーク (GNN) 用の XAI ベースのモデル改善アプローチを定式化します。
目標は、説明を使用して GNN の予測パフォーマンスを向上させることです。
EEGL は反復的な自己改善アルゴリズムであり、学習された「バニラ」 GNN から始まり、頻繁なサブグラフ マイニングを繰り返し使用して説明サブグラフ内の関連パターンを見つけます。
これらのパターンはさらにフィルタリングされて、ノード近傍内の特定のサブグラフの存在に対応するアプリケーション依存の特徴が取得されます。
Weisfeiler-Leman (1-WL) アルゴリズムのこのようなサブグラフベースの拡張にアプリケーション依存のアルゴリズムを与えることは、以前に未解決の問題として提起されていました。
我々は、EEGL が予測パフォーマンスにおいて関連するアプローチよりも優れており、バニラ GNN を超えるノード識別力を備えていることを示す実験的証拠を合成データと現実世界のデータとともに提示します。
また、EEGL のトレーニングのダイナミクスも分析します。

要約(オリジナル)

We formulate an XAI-based model improvement approach for Graph Neural Networks (GNNs) for node classification, called Explanation Enhanced Graph Learning (EEGL). The goal is to improve predictive performance of GNN using explanations. EEGL is an iterative self-improving algorithm, which starts with a learned ‘vanilla’ GNN, and repeatedly uses frequent subgraph mining to find relevant patterns in explanation subgraphs. These patterns are then filtered further to obtain application-dependent features corresponding to the presence of certain subgraphs in the node neighborhoods. Giving an application-dependent algorithm for such a subgraph-based extension of the Weisfeiler-Leman (1-WL) algorithm has previously been posed as an open problem. We present experimental evidence, with synthetic and real-world data, which show that EEGL outperforms related approaches in predictive performance and that it has a node-distinguishing power beyond that of vanilla GNNs. We also analyze EEGL’s training dynamics.

arxiv情報

著者 Harish G. Naik,Jan Polster,Raj Shekhar,Tamás Horváth,György Turán
発行日 2024-03-12 17:41:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク