要約
タイトル:グラフ深層学習の包括的ライブラリ、CogDLの紹介
要約:
– GNN(グラフニューラルネットワーク)は、社会ネットワークや生物学的グラフなどの多様な領域において、様々な現実のアプリケーションで広く採用されている。
– グラフ深層学習の研究とアプリケーションは、グラフデータのスパースな性質、GNNの複雑なトレーニング、およびグラフタスクの非標準的な評価などの新しい課題を提出している。
– そこで、研究者や実践者が実験を行い、方法を比較し、効率的にアプリケーションを構築できるように、グラフ深層学習の包括的なライブラリ「CogDL」を提案する。
– CogDLでは、様々なグラフタスクのGNNモデルのトレーニングと評価のための統一された設計を提案し、これは既存のグラフ学習ライブラリでは一意である。
– 統一トレーナーを利用することで、CogDLはGNNトレーニングループを最適化できるため、Mixed Precision Trainingなどのトレーニング手法を使用できます。
– さらに、CogDLに効率的なスパース演算子を開発することで、効率性において業界最高のグラフライブラリになります。
– もう一つ重要なCogDLの特徴は、グラフ学習のオープンかつ再現可能な研究を促進することを目的とした、利用の容易さに焦点を当てています。
– CogDLを利用して、基本的なグラフタスクのベンチマーク結果を報告し、メンテナンスすることで、コミュニティで再現可能かつ直接利用できる基準結果を提供しています。
要約(オリジナル)
Graph neural networks (GNNs) have attracted tremendous attention from the graph learning community in recent years. It has been widely adopted in various real-world applications from diverse domains, such as social networks and biological graphs. The research and applications of graph deep learning present new challenges, including the sparse nature of graph data, complicated training of GNNs, and non-standard evaluation of graph tasks. To tackle the issues, we present CogDL, a comprehensive library for graph deep learning that allows researchers and practitioners to conduct experiments, compare methods, and build applications with ease and efficiency. In CogDL, we propose a unified design for the training and evaluation of GNN models for various graph tasks, making it unique among existing graph learning libraries. By utilizing this unified trainer, CogDL can optimize the GNN training loop with several training techniques, such as mixed precision training. Moreover, we develop efficient sparse operators for CogDL, enabling it to become the most competitive graph library for efficiency. Another important CogDL feature is its focus on ease of use with the aim of facilitating open and reproducible research of graph learning. We leverage CogDL to report and maintain benchmark results on fundamental graph tasks, which can be reproduced and directly used by the community.
arxiv情報
著者 | Yukuo Cen,Zhenyu Hou,Yan Wang,Qibin Chen,Yizhen Luo,Zhongming Yu,Hengrui Zhang,Xingcheng Yao,Aohan Zeng,Shiguang Guo,Yuxiao Dong,Yang Yang,Peng Zhang,Guohao Dai,Yu Wang,Chang Zhou,Hongxia Yang,Jie Tang |
発行日 | 2023-04-17 10:44:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI