Evaluating Neighbor Explainability for Graph Neural Networks

要約

グラフ ニューラル ネットワーク (GNN) の説明可能性は、ここ数年で成長している新しい分野です。
この出版物では、ノードを分類する際に GNN にとって各隣接ノードがどの程度重要であるかを判断する問題と、この特定のタスクのパフォーマンスを測定する方法について説明します。
これを行うために、さまざまな既知の説明可能性手法を再定式化して近隣重要度を取得し、4 つの新しい指標を提示します。
私たちの結果は、GNN ドメインの勾配ベースの手法によって提供される説明間にほとんど違いがないことを示しています。
さらに、多くの説明可能性手法では、自己ループのない GNN が使用されている場合、重要な近傍を特定できませんでした。

要約(オリジナル)

Explainability in Graph Neural Networks (GNNs) is a new field growing in the last few years. In this publication we address the problem of determining how important is each neighbor for the GNN when classifying a node and how to measure the performance for this specific task. To do this, various known explainability methods are reformulated to get the neighbor importance and four new metrics are presented. Our results show that there is almost no difference between the explanations provided by gradient-based techniques in the GNN domain. In addition, many explainability techniques failed to identify important neighbors when GNNs without self-loops are used.

arxiv情報

著者 Oscar Llorente,Péter Vaderna,Sándor Laki,Roland Kotroczó,Rita Csoma,János Márk Szalai-Gindl
発行日 2023-11-14 12:33:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク