Explainable Graph Neural Networks Under Fire

要約

グラフ ニューラル ネットワーク (GNN) によって行われる予測は、複雑な計算動作とグラフの抽象的な性質により、通常、解釈可能性に欠けます。
これに取り組む試みとして、多くの GNN 説明手法が登場しました。
彼らの目標は、モデルの予測を説明し、それによって GNN モデルが意思決定クリティカルなアプリケーションに導入されるときに信頼を獲得することです。
ほとんどの GNN 説明手法は事後的に機能し、重要なエッジやノードの小さなサブセットの形式で説明を提供します。
この論文では、一般的な GNN 説明方法は敵対的な摂動の影響を非常に受けやすいことが判明しているため、残念ながらこれらの説明は信頼できないことを示します。
つまり、モデルの予測を維持する元のグラフ構造の小さな摂動であっても、大幅に異なる説明が得られる可能性があります。
これは、GNN の事後説明手法の信頼性と実用性に疑問を投げかけます。
GNN 説明モデルを攻撃できるようにするために、\textit{GX Attack} と呼ばれる新しい攻撃方法を考案しました。これは、そのような設定下でポストホック GNN 説明に対する最初の \textit{最適化ベースの}敵対的攻撃方法です。
私たちの攻撃の壊滅的な有効性のため、私たちは将来の GNN エクスプローラーの堅牢性を実証するために敵対的評価を行うことを求めます。

要約(オリジナル)

Predictions made by graph neural networks (GNNs) usually lack interpretability due to their complex computational behavior and the abstract nature of graphs. In an attempt to tackle this, many GNN explanation methods have emerged. Their goal is to explain a model’s predictions and thereby obtain trust when GNN models are deployed in decision critical applications. Most GNN explanation methods work in a post-hoc manner and provide explanations in the form of a small subset of important edges and/or nodes. In this paper we demonstrate that these explanations can unfortunately not be trusted, as common GNN explanation methods turn out to be highly susceptible to adversarial perturbations. That is, even small perturbations of the original graph structure that preserve the model’s predictions may yield drastically different explanations. This calls into question the trustworthiness and practical utility of post-hoc explanation methods for GNNs. To be able to attack GNN explanation models, we devise a novel attack method dubbed \textit{GXAttack}, the first \textit{optimization-based} adversarial attack method for post-hoc GNN explanations under such settings. Due to the devastating effectiveness of our attack, we call for an adversarial evaluation of future GNN explainers to demonstrate their robustness.

arxiv情報

著者 Zhong Li,Simon Geisler,Yuhang Wang,Stephan Günnemann,Matthijs van Leeuwen
発行日 2024-06-10 16:09:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク