要約
グラフ学習モデルは多くのタスクで最先端のパフォーマンスを実現しますが、多くの場合、モデル サイズがますます大きくなる必要があります。
したがって、それらの表現は複雑になります。
説明可能性技術 (XAI) は、ML モデルの解釈可能性において目覚ましい進歩を遂げました。
ただし、グラフ ニューラル ネットワーク (GNN) の非リレーショナルな性質により、既存の XAI メソッドを再利用することが困難になります。
他の研究は GNN のインスタンスベースの説明方法に焦点を当てていますが、モデルベースの方法を研究したものはほとんどなく、私たちの知る限りでは、よく知られている構造グラフのプロパティについて GNN の埋め込みを調査しようとしたものはありません。
この論文では、診断分類子を使用するグラフ ニューラル ネットワーク (GNN) 用のモデルに依存しない説明可能性パイプラインを紹介します。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたって GNN で学習された表現を調査して解釈し、これらのモデルに対する理解と信頼を高めることを目的としています。
要約(オリジナル)
Graph learning models achieve state-of-the-art performance on many tasks, but this often requires increasingly large model sizes. Accordingly, the complexity of their representations increase. Explainability techniques (XAI) have made remarkable progress in the interpretability of ML models. However, the non-relational nature of Graph Neural Networks (GNNs) make it difficult to reuse already existing XAI methods. While other works have focused on instance-based explanation methods for GNNs, very few have investigated model-based methods and, to our knowledge, none have tried to probe the embedding of the GNNs for well-known structural graph properties. In this paper we present a model agnostic explainability pipeline for Graph Neural Networks (GNNs) employing diagnostic classifiers. This pipeline aims to probe and interpret the learned representations in GNNs across various architectures and datasets, refining our understanding and trust in these models.
arxiv情報
著者 | Tom Pelletreau-Duris,Ruud van Bakel,Michael Cochez |
発行日 | 2024-11-04 15:26:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google