Combining Stochastic Explainers and Subgraph Neural Networks can Increase Expressivity and Interpretability

要約

タイトル:Stochastic ExplainersとSubgraph Neural Networksの統合は、表現力と解釈可能性を向上させることができます。

要約:

– SGNNは、標準のメッセージパッシングフレームワークの表現力を向上させることができます。
– SGNNは、ランダムサンプリングまたは手作業により抽出されたサブグラフのコレクションとして、それぞれのグラフを表現します。
– 有意義なサブグラフを選択することにより、GNNの表現力を向上させるだけでなく、解釈可能な結果を得ることも可能です。
– この目的のために、私たちは、グラフのクラスと説明的な疎なサブグラフのセットを共同で予測する新しいフレームワークを導入します。
– 我々のフレームワークのパフォーマンスは、ランダムノード/エッジ削除戦略のような標準的なサブグラフ抽出ポリシーと比較して、精度の面で同等以上で、さらに説明を提供する追加の利点があります。
– 私たちのフレームワークによって生成されたサブグラフにより、精度に関しては同等のパフォーマンスを達成し、説明が提供される追加の利点があります。

要約(オリジナル)

Subgraph-enhanced graph neural networks (SGNN) can increase the expressive power of the standard message-passing framework. This model family represents each graph as a collection of subgraphs, generally extracted by random sampling or with hand-crafted heuristics. Our key observation is that by selecting ‘meaningful’ subgraphs, besides improving the expressivity of a GNN, it is also possible to obtain interpretable results. For this purpose, we introduce a novel framework that jointly predicts the class of the graph and a set of explanatory sparse subgraphs, which can be analyzed to understand the decision process of the classifier. We compare the performance of our framework against standard subgraph extraction policies, like random node/edge deletion strategies. The subgraphs produced by our framework allow to achieve comparable performance in terms of accuracy, with the additional benefit of providing explanations.

arxiv情報

著者 Indro Spinelli,Michele Guerra,Filippo Maria Bianchi,Simone Scardapane
発行日 2023-04-14 14:21:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク