要約
この論文では、ネットワーク サイエンスの古典的な生成モデルを使用して作成された合成データセットのグラフ分類タスクのための 4 つのグラフ ニューラル ネットワーク アーキテクチャ (GNN) を研究します。
合成ネットワークには (ノードまたはエッジ) 特徴が含まれていないため、5 つの異なる拡張戦略 (人工特徴タイプ) がノードに適用されます。
4 つの GNN (階層型およびグローバル集約を備えた GCN、GIN および GATv2) と 5 つの特徴タイプ (定数 1、ノイズ、次数、正規化された次数、および ID — さまざまな長さのサイクル数のベクトル) のすべての組み合わせが調査されます。
そしてそのパフォーマンスを、GNN で使用される人工ニューラル ネットワークの隠れ次元の関数として比較しました。
これらのモデルの一般化能力も、2 番目の合成ネットワーク データセット (さまざまなサイズのネットワークを含む) を使用して分析されます。私たちの結果は、GNN アーキテクチャの計算能力と人工特徴によって提供される情報レベルのバランスのとれた重要性を示しています。
GIN や GATv2 など、より高い計算能力を備えた GNN アーキテクチャは、ほとんどの拡張戦略で適切に機能します。
一方で、ID や次数などのより多くの情報コンテンツを持つ人工特徴は、他の拡張戦略よりも常に優れたパフォーマンスを発揮するだけでなく、計算能力の低い GNN アーキテクチャが良好なパフォーマンスを達成するのにも役立ちます。
要約(オリジナル)
This paper studies four Graph Neural Network architectures (GNNs) for a graph classification task on a synthetic dataset created using classic generative models of Network Science. Since the synthetic networks do not contain (node or edge) features, five different augmentation strategies (artificial feature types) are applied to nodes. All combinations of the 4 GNNs (GCN with Hierarchical and Global aggregation, GIN and GATv2) and the 5 feature types (constant 1, noise, degree, normalized degree and ID — a vector of the number of cycles of various lengths) are studied and their performances compared as a function of the hidden dimension of artificial neural networks used in the GNNs. The generalisation ability of these models is also analysed using a second synthetic network dataset (containing networks of different sizes).Our results point towards the balanced importance of the computational power of the GNN architecture and the the information level provided by the artificial features. GNN architectures with higher computational power, like GIN and GATv2, perform well for most augmentation strategies. On the other hand, artificial features with higher information content, like ID or degree, not only consistently outperform other augmentation strategies, but can also help GNN architectures with lower computational power to achieve good performance.
arxiv情報
著者 | Walid Guettala,László Gulyás |
発行日 | 2024-01-11 17:09:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google