要約
ディープ ニューラル ネットワーク (DNN) は、多くのタスクで最先端のパフォーマンスを実現しますが、多くの場合、ますます大きなモデル サイズが必要となり、その結果、内部表現がより複雑になります。
説明可能性技術 (XAI) は、ML モデルの解釈可能性において目覚ましい進歩を遂げました。
ただし、グラフ ニューラル ネットワーク (GNN) の非リレーショナルな性質により、既存の XAI メソッドを再利用することが困難になります。
他の研究は GNN のインスタンスベースの説明方法に焦点を当てていますが、モデルベースの方法を研究したものはほとんどなく、私たちの知る限りでは、よく知られている構造グラフのプロパティについて GNN の埋め込みを調査しようとしたものはありません。
この論文では、診断分類器を使用する GNN 用のモデルに依存しない説明可能性パイプラインを紹介します。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたって GNN で学習された表現を調査して解釈し、これらのモデルに対する理解と信頼を高めることを目的としています。
要約(オリジナル)
Deep neural networks (DNNs) achieve state-of-the-art performance on many tasks, but this often requires increasingly larger model sizes, which in turn leads to more complex internal representations. Explainability techniques (XAI) have made remarkable progress in the interpretability of ML models. However, the non-relational nature of Graph neural networks (GNNs) make it difficult to reuse already existing XAI methods. While other works have focused on instance-based explanation methods for GNNs, very few have investigated model-based methods and, to our knowledge, none have tried to probe the embedding of the GNNs for well-known structural graph properties. In this paper we present a model agnostic explainability pipeline for GNNs employing diagnostic classifiers. This pipeline aims to probe and interpret the learned representations in GNNs across various architectures and datasets, refining our understanding and trust in these models.
arxiv情報
著者 | Tom Pelletreau-Duris,Ruud van Bakel,Michael Cochez |
発行日 | 2024-12-10 18:14:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google