Exploring Explainability Methods for Graph Neural Networks

要約

深層学習手法、特に複雑な相互接続情報を符号化するグラフニューラルネットワークが様々な実タスクに用いられるようになり、このような設定における説明可能性の必要性が高まっている。本論文では、グラフベースのスーパーピクセル画像分類タスクに対するグラフアテンションネットワーク(GAT)上の一般的な説明可能性アプローチの適用可能性を実証する。我々は、3つの異なるデータセットにおいて、これらの手法の定性的・定量的性能を評価し、その結果を説明する。この結果は、GNN、特にGATにおける説明可能性の概念に新しい光を当てるものである。

要約(オリジナル)

With the growing use of deep learning methods, particularly graph neural networks, which encode intricate interconnectedness information, for a variety of real tasks, there is a necessity for explainability in such settings. In this paper, we demonstrate the applicability of popular explainability approaches on Graph Attention Networks (GAT) for a graph-based super-pixel image classification task. We assess the qualitative and quantitative performance of these techniques on three different datasets and describe our findings. The results shed a fresh light on the notion of explainability in GNNs, particularly GATs.

arxiv情報

著者 Harsh Patel,Shivam Sahni
発行日 2022-11-03 12:50:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク