要約
タイトル:スケーラブルグラフ学習のための階層的Transformer
要約:
– グラフTransformerは機械学習の分野で注目を集めており、グラフ表現学習のベンチマークで最先端のパフォーマンスを示しています。
– しかし、現在のグラフTransformerの実装は主に小規模グラフの表現学習に焦点を当てているため、大規模グラフに適用する場合、グローバル自己注意機構の二次計算量が完全バッチトレーニングに対して課題を提供します。
– 加えて、従来のサンプリングベースの方法は必要な高レベルな文脈情報を捉えることができず、重要なパフォーマンスの低下を引き起こします。
– 本論文では、これらの課題に対する解決策として、Hierarchical Scalable Graph Transformer(HSGT)を開発しました。
– HSGTは、グラフの階層構造を採用することで、大規模グラフ上のノード表現学習タスクにTransformerアーキテクチャをスケーリングし、高いパフォーマンスを維持します。
– サンプリングベースのトレーニング方法と共に、HSGTは転送ブロックのみを使用して、階層グラフ上の多レベル情報を効果的に捕捉および集約します。
– 実証評価は、HSGTが高い効率性で数百万のノードを含む大規模ベンチマークで最先端のパフォーマンスを発揮することを示しています。
要約(オリジナル)
Graph Transformer is gaining increasing attention in the field of machine learning and has demonstrated state-of-the-art performance on benchmarks for graph representation learning. However, as current implementations of Graph Transformer primarily focus on learning representations of small-scale graphs, the quadratic complexity of the global self-attention mechanism presents a challenge for full-batch training when applied to larger graphs. Additionally, conventional sampling-based methods fail to capture necessary high-level contextual information, resulting in a significant loss of performance. In this paper, we introduce the Hierarchical Scalable Graph Transformer (HSGT) as a solution to these challenges. HSGT successfully scales the Transformer architecture to node representation learning tasks on large-scale graphs, while maintaining high performance. By utilizing graph hierarchies constructed through coarsening techniques, HSGT efficiently updates and stores multi-scale information in node embeddings at different levels. Together with sampling-based training methods, HSGT effectively captures and aggregates multi-level information on the hierarchical graph using only Transformer blocks. Empirical evaluations demonstrate that HSGT achieves state-of-the-art performance on large-scale benchmarks with graphs containing millions of nodes with high efficiency.
arxiv情報
著者 | Wenhao Zhu,Tianyu Wen,Guojie Song,Xiaojun Ma,Liang Wang |
発行日 | 2023-05-05 05:21:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI