要約
符号付きグラフ ニューラル ネットワーク (SGNN) は、ポジティブなリンクとネガティブなリンクが共存する現実世界の状況における複雑なパターンの分析に効果的であることが示されています。
ただし、SGNN モデルは説明可能性が低いため、予測の背後にある理論的根拠を理解する必要がある重要なシナリオでの採用が制限されます。
私たちの知る限り、現在、SGNN モデルの説明可能性に関する研究は行われていません。
私たちの目標は、符号付きグラフ ニューラル ネットワークに特有のリンク符号予測の下流タスクの意思決定の説明可能性に取り組むことです。
事後説明はモデルから直接導出されるものではないため、偏りがあり、真の説明を誤って伝えている可能性があります。
そこで、この論文では、高い予測精度を確保しながら説明可能な情報を出力できるだけでなく、Self-Explainable Signed Graph Transformer (SE-SGformer) フレームワークを紹介します。
具体的には、符号付きグラフ用の新しい Transformer アーキテクチャを提案し、符号付きランダム ウォークに基づく位置エンコーディングの使用が、現在の SGNN 手法や他の位置エンコーディング グラフの Transformer ベースのアプローチよりも優れた表現力を持つことを理論的に実証します。
エッジサインを予測するためのニューラルネットワークベースのデコーダを置き換えるために、ノードの$K$-最近(最も遠い)正(負)近傍を発見することにより、新しい説明可能な意思決定プロセスを構築します。
これらの $K$ 正 (負) 近傍は、ノード間の正 (負) エッジの形成に関する重要な情報を表すため、意思決定プロセスにおける重要な説明情報として機能します。
SE-SGformer の有効性を検証するために、いくつかの実世界のデータセットで実験を実施しました。SE-SGformer は、最良のシナリオで 2.2\% の予測精度と 73.1\% の説明精度を向上させ、最先端の手法を上回りました。
要約(オリジナル)
Signed Graph Neural Networks (SGNNs) have been shown to be effective in analyzing complex patterns in real-world situations where positive and negative links coexist. However, SGNN models suffer from poor explainability, which limit their adoptions in critical scenarios that require understanding the rationale behind predictions. To the best of our knowledge, there is currently no research work on the explainability of the SGNN models. Our goal is to address the explainability of decision-making for the downstream task of link sign prediction specific to signed graph neural networks. Since post-hoc explanations are not derived directly from the models, they may be biased and misrepresent the true explanations. Therefore, in this paper we introduce a Self-Explainable Signed Graph transformer (SE-SGformer) framework, which can not only outputs explainable information while ensuring high prediction accuracy. Specifically, We propose a new Transformer architecture for signed graphs and theoretically demonstrate that using positional encoding based on signed random walks has greater expressive power than current SGNN methods and other positional encoding graph Transformer-based approaches. We constructs a novel explainable decision process by discovering the $K$-nearest (farthest) positive (negative) neighbors of a node to replace the neural network-based decoder for predicting edge signs. These $K$ positive (negative) neighbors represent crucial information about the formation of positive (negative) edges between nodes and thus can serve as important explanatory information in the decision-making process. We conducted experiments on several real-world datasets to validate the effectiveness of SE-SGformer, which outperforms the state-of-the-art methods by improving 2.2\% prediction accuracy and 73.1\% explainablity accuracy in the best-case scenario.
arxiv情報
著者 | Lu Li,Jiale Liu,Xingyu Ji,Maojun Wang,Zeyu Zhang |
発行日 | 2024-08-16 13:54:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google