Sparse Implementation of Versatile Graph-Informed Layers

要約

グラフ ニューラル ネットワーク (GNN) は、グラフ構造データに関する学習タスクのための効果的なツールとして登場しました。
最近、グラフ ノードでの回帰タスクに対処するために Graph-Informed (GI) レイヤーが導入され、従来の GNN を超えて適用可能性が拡張されました。
ただし、GI レイヤーの既存の実装は、メモリ割り当てが密であるため効率が不足しています。
このペーパーでは、隣接行列のスパース性を利用してメモリ使用量を大幅に削減する、GI レイヤーのスパース実装について説明します。
さらに、汎用性の高い一般形式の GI レイヤーが導入され、グラフ ノードのサブセットへの適用が可能になります。
提案されたスパース実装は、GI 層の具体的な計算効率とスケーラビリティを向上させ、より深いグラフ情報型ニューラル ネットワーク (GINN) の構築を可能にし、より大きなグラフへのスケーラビリティを容易にします。

要約(オリジナル)

Graph Neural Networks (GNNs) have emerged as effective tools for learning tasks on graph-structured data. Recently, Graph-Informed (GI) layers were introduced to address regression tasks on graph nodes, extending their applicability beyond classic GNNs. However, existing implementations of GI layers lack efficiency due to dense memory allocation. This paper presents a sparse implementation of GI layers, leveraging the sparsity of adjacency matrices to reduce memory usage significantly. Additionally, a versatile general form of GI layers is introduced, enabling their application to subsets of graph nodes. The proposed sparse implementation improves the concrete computational efficiency and scalability of the GI layers, permitting to build deeper Graph-Informed Neural Networks (GINNs) and facilitating their scalability to larger graphs.

arxiv情報

著者 Francesco Della Santa
発行日 2024-03-20 17:43:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 03D32, 68T07, cs.LG, cs.NA, math.NA パーマリンク