要約
グラフ変換器(GT)は、メッセージパッシング型グラフニューラルネットワーク(GNN)よりも理論的に表現力が高い有望なアーキテクチャとして登場した。しかし、典型的なGTモデルは少なくとも2次関数的な複雑さを持つため、大規模なグラフには対応できない。最近、いくつかの線形GTが提案されているが、それらはいくつかの一般的なグラフデータセットにおいて、GNNの対応するものにまだ遅れをとっており、実用的な表現力について重大な懸念を投げかけている。GTの表現力とスケーラビリティのトレードオフのバランスを取るために、我々は線形複雑度を持つ多項式表現GTモデルであるPolynormerを提案する。Polynormerは、入力特徴に対して高次の多項式を学習する新しい基本モデルの上に構築される。ベースモデルの順列等変量を可能にするため、グラフトポロジーとノード特徴量を別々に統合し、局所的及び大域的な等変量注意モデルを実現する。その結果、Polynormerは線形局所から大域への注目スキームを採用し、注目スコアによって係数が制御される高次の等変量多項式を学習する。Polynormerは、数百万のノードを持つ大規模グラフを含む、$13$の同類および異類データセットで評価された。我々の広範な実験結果は、Polynormerが、非線形活性化関数を用いない場合でも、ほとんどのデータセットにおいて、最先端のGNNとGTのベースラインを凌駕することを示している。
要約(オリジナル)
Graph transformers (GTs) have emerged as a promising architecture that is theoretically more expressive than message-passing graph neural networks (GNNs). However, typical GT models have at least quadratic complexity and thus cannot scale to large graphs. While there are several linear GTs recently proposed, they still lag behind GNN counterparts on several popular graph datasets, which poses a critical concern on their practical expressivity. To balance the trade-off between expressivity and scalability of GTs, we propose Polynormer, a polynomial-expressive GT model with linear complexity. Polynormer is built upon a novel base model that learns a high-degree polynomial on input features. To enable the base model permutation equivariant, we integrate it with graph topology and node features separately, resulting in local and global equivariant attention models. Consequently, Polynormer adopts a linear local-to-global attention scheme to learn high-degree equivariant polynomials whose coefficients are controlled by attention scores. Polynormer has been evaluated on $13$ homophilic and heterophilic datasets, including large graphs with millions of nodes. Our extensive experiment results show that Polynormer outperforms state-of-the-art GNN and GT baselines on most datasets, even without the use of nonlinear activation functions.
arxiv情報
著者 | Chenhui Deng,Zichao Yue,Zhiru Zhang |
発行日 | 2024-03-02 15:32:01+00:00 |
arxivサイト | arxiv_id(pdf) |