要約
最近、グラフ表現学習用の Transformer の人気が高まっており、単独またはメッセージ パッシング グラフ ニューラル ネットワーク (MP-GNN) と組み合わせて、さまざまなデータセットで最先端のパフォーマンスを実現しています。
本質的に構造に依存しないトランス アーキテクチャに、構造エンコーディングまたは位置エンコーディング (PE) の形でグラフ誘導バイアスを注入することが、これらの素晴らしい結果を達成するための鍵となります。
しかし、このようなエンコーディングの設計は難しく、ラプラシアン固有ベクトル、相対ランダムウォーク確率 (RRWP)、空間エンコーディング、中心性エンコーディング、エッジ エンコーディングなどを含むエンコーディングを設計するためにさまざまな試みがなされてきました。この研究では、そのようなエンコーディングは可能性があると主張します。
注意メカニズム自体にグラフ構造に関する情報が組み込まれている場合は、まったく必要ありません。
グラフのラプラシアン スペクトルを認識する新しいスペクトル認識アテンション メカニズムを使用する Eigenformer を紹介し、多くの標準的な GNN ベンチマーク データセット上で SOTA MP-GNN アーキテクチャおよびグラフ トランスフォーマーに匹敵するパフォーマンスを達成し、さらにはそれを上回るパフォーマンスを達成することを実証的に示します。
一部のデータセットの SOTA。
また、おそらくグラフ固有の誘導バイアスのせいで、私たちのアーキテクチャはエポック数の点ではるかに高速にトレーニングできることもわかりました。
要約(オリジナル)
Recently, Transformers for graph representation learning have become increasingly popular, achieving state-of-the-art performance on a wide-variety of datasets, either alone or in combination with message-passing graph neural networks (MP-GNNs). Infusing graph inductive-biases in the innately structure-agnostic transformer architecture in the form of structural or positional encodings (PEs) is key to achieving these impressive results. However, designing such encodings is tricky and disparate attempts have been made to engineer such encodings including Laplacian eigenvectors, relative random-walk probabilities (RRWP), spatial encodings, centrality encodings, edge encodings etc. In this work, we argue that such encodings may not be required at all, provided the attention mechanism itself incorporates information about the graph structure. We introduce Eigenformer, which uses a novel spectrum-aware attention mechanism cognizant of the Laplacian spectrum of the graph, and empirically show that it achieves performance comparable to SOTA MP-GNN architectures and Graph Transformers on a number of standard GNN benchmark datasets, even surpassing the SOTA on some datasets. We also find that our architecture is much faster to train in terms of number of epochs, presumably due to the innate graph inductive biases.
arxiv情報
著者 | Ayush Garg |
発行日 | 2024-01-31 12:33:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google