要約
グラフ畳み込みネットワーク(GCN)は、グラフベースの学習タスクにおいて優れていることが実証されている。(2)GCNを学習する際の計算ワークフローは、疎行列演算と密行列演算が交互に行われるため、計算リソースの効率的な利用が複雑になります。スケーラブルな分散フルグラフGCNトレーニングのための既存のソリューションは、ほとんどがパーティション並列を採用しており、スケールアウトした通信量が発生する一方で、最初の課題に部分的にしか対処できないため、満足のいくものではありません。このため、我々はGCN学習における前述の2つの課題を同時に解決することを目的としたMixGCNを提案します。第1の課題に取り組むために、MixGCNは並列性の混合を統合します。第二の課題に対しては、GCNトレーニング専用アクセラレータとファイングレインパイプラインによるアクセラレータの混合(すなわち、スパースアクセラレータとデンスアクセラレータ)を検討します。広範な実験により、MixGCNがトレーニング効率とスケーラビリティを向上させることが示された。
要約(オリジナル)
Graph convolutional networks (GCNs) have demonstrated superiority in graph-based learning tasks. However, training GCNs on full graphs is particularly challenging, due to the following two challenges: (1) the associated feature tensors can easily explode the memory and block the communication bandwidth of modern accelerators, and (2) the computation workflow in training GCNs alternates between sparse and dense matrix operations, complicating the efficient utilization of computational resources. Existing solutions for scalable distributed full-graph GCN training mostly adopt partition parallelism, which is unsatisfactory as they only partially address the first challenge while incurring scaled-out communication volume. To this end, we propose MixGCN aiming to simultaneously address both the aforementioned challenges towards GCN training. To tackle the first challenge, MixGCN integrates mixture of parallelism. Both theoretical and empirical analysis verify its constant communication volumes and enhanced balanced workload; For handling the second challenge, we consider mixture of accelerators (i.e., sparse and dense accelerators) with a dedicated accelerator for GCN training and a fine-grain pipeline. Extensive experiments show that MixGCN achieves boosted training efficiency and scalability.
arxiv情報
著者 | Cheng Wan,Runkao Tao,Zheng Du,Yang Katie Zhao,Yingyan Celine Lin |
発行日 | 2025-01-03 18:54:46+00:00 |
arxivサイト | arxiv_id(pdf) |