要約
私たちは、グラフ ニューラル ネットワーク (GNN) の動作メカニズムを解明するためのステップとして、その説明可能性を調査します。
現在の手法のほとんどはグラフのノード、エッジ、または特徴を説明することに重点を置いていますが、GNN の固有の機能メカニズムとして、説明可能性を実現するにはメッセージ フローの方が自然であると私たちは主張します。
この目的を達成するために、重要なメッセージ フローを特定することで GNN を説明する、FlowX として知られる新しい方法をここで提案します。
フローの重要性を定量化するために、協力ゲーム理論からの Shapley 価値観の哲学に従うことを提案します。
すべての連合の限界寄与を計算する複雑さに取り組むために、さらなるトレーニングの初期評価としてシャプレー値近似を計算するフロー サンプリング スキームを提案します。
次に、必要な説明または十分な説明など、さまざまな説明ターゲットに向けてフロースコアをトレーニングするための情報制御学習アルゴリズムを提案します。
合成データセットと現実世界のデータセットの両方に関する実験研究は、私たちが提案した FlowX とそのバリアントが GNN の説明可能性の向上につながることを実証しています。
コードは https://github.com/divelab/DIG で入手できます。
要約(オリジナル)
We investigate the explainability of graph neural networks (GNNs) as a step toward elucidating their working mechanisms. While most current methods focus on explaining graph nodes, edges, or features, we argue that, as the inherent functional mechanism of GNNs, message flows are more natural for performing explainability. To this end, we propose a novel method here, known as FlowX, to explain GNNs by identifying important message flows. To quantify the importance of flows, we propose to follow the philosophy of Shapley values from cooperative game theory. To tackle the complexity of computing all coalitions’ marginal contributions, we propose a flow sampling scheme to compute Shapley value approximations as initial assessments of further training. We then propose an information-controlled learning algorithm to train flow scores toward diverse explanation targets: necessary or sufficient explanations. Experimental studies on both synthetic and real-world datasets demonstrate that our proposed FlowX and its variants lead to improved explainability of GNNs. The code is available at https://github.com/divelab/DIG.
arxiv情報
著者 | Shurui Gui,Hao Yuan,Jie Wang,Qicheng Lao,Kang Li,Shuiwang Ji |
発行日 | 2023-12-29 21:28:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google