要約
我々は、多重説明グラフアテンションネットワーク(MEGAN)を提案します。
既存のグラフ説明可能性手法とは異なり、私たちのネットワークは複数のチャネルに沿ってノードとエッジの帰属説明を生成でき、その数はタスク仕様に依存しません。
これは、参照値に対して説明が肯定的な証拠と否定的な証拠に分割される可能性があるため、グラフ回帰予測の解釈可能性を向上させるために非常に重要であることがわかります。
さらに、私たちの注意ベースのネットワークは完全に微分可能であり、説明は説明教師付きの方法でアクティブにトレーニングできます。
まず、既知のグラウンドトゥルースの説明を使用して、合成グラフ回帰データセットでモデルを検証します。
私たちのネットワークは、単一説明だけでなく複数説明の場合でも既存のベースライン説明可能性手法を上回り、説明監視中にほぼ完璧な説明精度を達成します。
最後に、複数の実世界のデータセットでモデルの機能を実証します。
私たちのモデルは、これらのタスクに関する人間の直観と一致する、まばらで忠実度の高い説明を生成することがわかりました。
要約(オリジナル)
We propose a multi-explanation graph attention network (MEGAN). Unlike existing graph explainability methods, our network can produce node and edge attributional explanations along multiple channels, the number of which is independent of task specifications. This proves crucial to improve the interpretability of graph regression predictions, as explanations can be split into positive and negative evidence w.r.t to a reference value. Additionally, our attention-based network is fully differentiable and explanations can actively be trained in an explanation-supervised manner. We first validate our model on a synthetic graph regression dataset with known ground-truth explanations. Our network outperforms existing baseline explainability methods for the single- as well as the multi-explanation case, achieving near-perfect explanation accuracy during explanation supervision. Finally, we demonstrate our model’s capabilities on multiple real-world datasets. We find that our model produces sparse high-fidelity explanations consistent with human intuition about those tasks.
arxiv情報
著者 | Jonas Teufel,Luca Torresi,Patrick Reiser,Pascal Friederich |
発行日 | 2023-05-25 15:48:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google