要約
最近、グラフ表現学習用の Transformer の人気が高まっており、単独またはメッセージ パッシング グラフ ニューラル ネットワーク (MP-GNN) と組み合わせて、さまざまなデータセットで最先端のパフォーマンスを実現しています。
本質的に構造に依存しないトランス アーキテクチャに、構造エンコーディングまたは位置エンコーディング (PE) の形でグラフ誘導バイアスを注入することが、これらの優れた結果を達成するための鍵となります。
しかし、そのようなエンコーディングの設計は難しく、ラプラシアン固有ベクトル、相対ランダムウォーク確率 (RRWP)、空間エンコーディング、中心性エンコーディング、エッジエンコーディングなどを含むエンコーディングを設計するためにさまざまな試みがなされてきました。この研究では、そのようなエンコーディングは可能性があると主張します。
注意メカニズム自体にグラフ構造に関する情報が組み込まれている場合は、まったく必要ありません。
グラフのラプラシアン スペクトルを認識する新しいスペクトル認識アテンション メカニズムを採用したグラフ トランスフォーマーである、Eigenformer を紹介し、多くの標準的な GNN ベンチマーク データセット上で SOTA グラフ トランスフォーマーに匹敵するパフォーマンスを達成し、さらには SOTA を上回ることを実証的に示します。
いくつかのデータセット。
よりシンプルなアテンション メカニズムにより、特定のパラメーター バジェットに対してより幅広くより深いモデルをトレーニングすることもできます。
要約(オリジナル)
Recently, Transformers for graph representation learning have become increasingly popular, achieving state-of-the-art performance on a wide-variety of datasets, either alone or in combination with message-passing graph neural networks (MP-GNNs). Infusing graph inductive-biases in the innately structure-agnostic transformer architecture in the form of structural or positional encodings (PEs) is key to achieving these impressive results. However, designing such encodings is tricky and disparate attempts have been made to engineer such encodings including Laplacian eigenvectors, relative random-walk probabilities (RRWP), spatial encodings, centrality encodings, edge encodings etc. In this work, we argue that such encodings may not be required at all, provided the attention mechanism itself incorporates information about the graph structure. We introduce Eigenformer, a Graph Transformer employing a novel spectrum-aware attention mechanism cognizant of the Laplacian spectrum of the graph, and empirically show that it achieves performance comparable to SOTA Graph Transformers on a number of standard GNN benchmark datasets, even surpassing the SOTA on some datasets. The simpler attention mechanism also allows us to train wider and deeper models for a given parameter budget.
arxiv情報
著者 | Ayush Garg |
発行日 | 2024-02-23 13:26:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google