ScaleNet: Scale Invariance Learning in Directed Graphs

要約

グラフ ニューラル ネットワーク (GNN) は高度なリレーショナル データ分析を備えていますが、画像分類で一般的な不変学習技術が欠けています。
GNN によるノード分類では、実際に分類されるのは中心ノードのエゴグラフです。
この研究は、画像処理に類似したスケール不変性の概念をノード分類に拡張します。マルチスケールの特徴を捕捉するために画像分類でスケール不変性が使用されるのと同じように、「スケーリングされたエゴグラフ」の概念を提案します。
スケーリングされたエゴグラフは、無向の単一エッジを、複数の有向エッジの順序付けされたシーケンスである「スケーリングされたエッジ」に置き換えることによって、従来のエゴグラフを一般化します。
我々は、同親性構造と異好性構造の両方にわたる 7 つのベンチマーク データセットのグラフで、提案されたスケール不変性のパフォーマンスを経験的に評価します。
スケール不変ベースのグラフ学習は、よりシンプル、より高速、より正確であるため、ランダム ウォークから派生した開始モデルよりも優れたパフォーマンスを発揮します。
スケール不変性は、同種親和性グラフでの開始モデルの成功と異種親和性グラフでの限界を説明します。
開始モデルの異好性グラフへの適用性を確保するために、マルチスケール機能を活用するアーキテクチャである ScaleNet をさらに紹介します。
ScaleNet は、7 つのデータセットのうち 5 つ (同種親和性 4 つと異好性 1 つ) で最先端の結果を達成し、残りの 2 つでは最高のパフォーマンスに匹敵し、その優れた適用性を示しています。
これはグラフ学習の大幅な進歩を表し、さまざまなグラフ タイプにわたってノード分類を強化する統合フレームワークを提供します。
私たちのコードは https://github.com/Qin87/ScaleNet/tree/Jully25 で入手できます。

要約(オリジナル)

Graph Neural Networks (GNNs) have advanced relational data analysis but lack invariance learning techniques common in image classification. In node classification with GNNs, it is actually the ego-graph of the center node that is classified. This research extends the scale invariance concept to node classification by drawing an analogy to image processing: just as scale invariance being used in image classification to capture multi-scale features, we propose the concept of “scaled ego-graphs”. Scaled ego-graphs generalize traditional ego-graphs by replacing undirected single-edges with “scaled-edges”, which are ordered sequences of multiple directed edges. We empirically assess the performance of the proposed scale invariance in graphs on seven benchmark datasets, across both homophilic and heterophilic structures. Our scale-invariance-based graph learning outperforms inception models derived from random walks by being simpler, faster, and more accurate. The scale invariance explains inception models’ success on homophilic graphs and limitations on heterophilic graphs. To ensure applicability of inception model to heterophilic graphs as well, we further present ScaleNet, an architecture that leverages multi-scaled features. ScaleNet achieves state-of-the-art results on five out of seven datasets (four homophilic and one heterophilic) and matches top performance on the remaining two, demonstrating its excellent applicability. This represents a significant advance in graph learning, offering a unified framework that enhances node classification across various graph types. Our code is available at https://github.com/Qin87/ScaleNet/tree/July25.

arxiv情報

著者 Qin Jiang,Chengjia Wang,Michael Lones,Wei Pang
発行日 2024-11-13 16:42:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク