Towards Mechanistic Interpretability of Graph Transformers via Attention Graphs

要約

GNNSのメッセージの通過と変圧器の自己触媒メカニズムとの数学的等価性に基づいて、グラフニューラルネットワーク(GNNS)の機械的解釈可能性とグラフトランスの新しいツールである注意グラフを紹介します。
注意グラフは、トランス層とヘッド全体に注意行列を集計し、入力ノード間で情報がどのように流れるかを説明します。
同性愛および異種ノード分類タスクの実験を通じて、ネットワークサイエンスの観点から注意グラフを分析し、次のことを見つけます。
モデルによって学んだグラフは、入力/元のグラフ構造と相関する傾向がありません。
(2)ヘテロフィラスグラフの場合、異なるグラフトランスバリエーションは、異なる情報フローパターンを利用しながら、同様のパフォーマンスを実現できます。
オープンソースコード:https://github.com/batu-el/understanding-inductive-biases-of-gnns

要約(オリジナル)

We introduce Attention Graphs, a new tool for mechanistic interpretability of Graph Neural Networks (GNNs) and Graph Transformers based on the mathematical equivalence between message passing in GNNs and the self-attention mechanism in Transformers. Attention Graphs aggregate attention matrices across Transformer layers and heads to describe how information flows among input nodes. Through experiments on homophilous and heterophilous node classification tasks, we analyze Attention Graphs from a network science perspective and find that: (1) When Graph Transformers are allowed to learn the optimal graph structure using all-to-all attention among input nodes, the Attention Graphs learned by the model do not tend to correlate with the input/original graph structure; and (2) For heterophilous graphs, different Graph Transformer variants can achieve similar performance while utilising distinct information flow patterns. Open source code: https://github.com/batu-el/understanding-inductive-biases-of-gnns

arxiv情報

著者 Batu El,Deepro Choudhury,Pietro Liò,Chaitanya K. Joshi
発行日 2025-02-25 17:15:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク