AGFormer: Efficient Graph Representation with Anchor-Graph Transformer

要約

GCNの局所的な受容性の問題を緩和するために、グラフデータの表現と学習のために、ノードの長距離依存性を捕捉するTransformerが利用されてきました。しかし、既存のグラフ変換器は、一般に、すべてのノード間メッセージの受け渡しに、すべてのノードのペア間の親和性や関係を学習する必要がある通常の自己注意モジュールを採用しており、高い計算コストの問題につながっています。また、通常、グラフのノイズに敏感である。この問題を克服するために、我々は、アンカーグラフモデルを活用することで、アンカーグラフ変換器(AGFormer)と呼ばれる、新しいグラフ変換器アーキテクチャを提案する。具体的には、AGFormerはまず代表的なアンカーをいくつか取得し、次にノード間のメッセージパッシングをアンカー間およびアンカーからノードへのメッセージパッシングに変換する。このように、AGFormerは通常のノード間変換器よりもはるかに効率的であり、また頑健に動作する。いくつかのベンチマークデータセットでの広範な実験により、提案するAGFormerの有効性と利点を実証する。

要約(オリジナル)

To alleviate the local receptive issue of GCN, Transformers have been exploited to capture the long range dependences of nodes for graph data representation and learning. However, existing graph Transformers generally employ regular self-attention module for all node-to-node message passing which needs to learn the affinities/relationships between all node’s pairs, leading to high computational cost issue. Also, they are usually sensitive to graph noises. To overcome this issue, we propose a novel graph Transformer architecture, termed Anchor Graph Transformer (AGFormer), by leveraging an anchor graph model. To be specific, AGFormer first obtains some representative anchors and then converts node-to-node message passing into anchor-to-anchor and anchor-to-node message passing process. Thus, AGFormer performs much more efficiently and also robustly than regular node-to-node Transformers. Extensive experiments on several benchmark datasets demonstrate the effectiveness and benefits of proposed AGFormer.

arxiv情報

著者 Bo Jiang,Fei Xu,Ziyan Zhang,Jin Tang,Feiping Nie
発行日 2023-05-12 14:35:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク