要約
グラフ ニューラル ネットワーク (GNN) は、グラフ構造のデータから学習できるため、ますます注目を集めています。
これらの深層学習モデルのブラックボックスを開くために、GNN 予測を理解するためのポストホックなインスタンスレベルの説明方法が提案されています。
これらのメソッドは、トレーニングされた GNN の予測動作を説明する部分構造を発見しようとします。
この論文では、大規模なクラスの説明タスクに対して、グラフ情報ボトルネック (GIB) の原理に基づく従来のアプローチでは、説明可能性の概念と一致しない自明な解決策が許容されることを分析的に示します。
代わりに、修正された GIB 原則を使用して、前述の簡単な解決策を回避できると主張します。
さらに、理論的なパフォーマンスが保証された新しい因数分解説明モデルを導入します。
修正された GIB は、提案された因数分解されたエクスプローラーの構造特性を分析するために使用されます。
私たちは、合成データセットと現実世界のデータセットの両方で広範な実験を実施し、提案した因数分解説明子の有効性を検証します。
要約(オリジナル)
Graph Neural Networks (GNNs) have received increasing attention due to their ability to learn from graph-structured data. To open the black-box of these deep learning models, post-hoc instance-level explanation methods have been proposed to understand GNN predictions. These methods seek to discover substructures that explain the prediction behavior of a trained GNN. In this paper, we show analytically that for a large class of explanation tasks, conventional approaches, which are based on the principle of graph information bottleneck (GIB), admit trivial solutions that do not align with the notion of explainability. Instead, we argue that a modified GIB principle may be used to avoid the aforementioned trivial solutions. We further introduce a novel factorized explanation model with theoretical performance guarantees. The modified GIB is used to analyze the structural properties of the proposed factorized explainer. We conduct extensive experiments on both synthetic and real-world datasets to validate the effectiveness of our proposed factorized explainer.
arxiv情報
著者 | Rundong Huang,Farhad Shirani,Dongsheng Luo |
発行日 | 2024-02-07 18:52:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google