要約
グラフ ニューラル ネットワーク (GNN) は、グラフ内のノードを分類するための主要なパラダイムですが、メッセージ パッシング アーキテクチャに起因するいくつかの望ましくない属性があります。
最近、蒸留メソッドによりテスト時の GNN の使用を排除することに成功しましたが、トレーニング中は依然として GNN が必要です。
当社は、蒸留方法において GNN が果たす役割を注意深く分析しています。
この分析により、トレーニング時やテスト時に GNN を必要としない、ノード分類のための完全に GNN フリーのアプローチを提案することができました。
私たちの方法は、平滑性制約、擬似ラベル付け反復、近傍ラベル ヒストグラムという 3 つの主要なコンポーネントで構成されています。
私たちの最終的なアプローチは、GNN をトレーニングすることなく、引用ネットワークや共同購入ネットワークなどの標準的な一般的なベンチマークで最先端の精度と一致させることができます。
要約(オリジナル)
Graph neural networks (GNNs) are the dominant paradigm for classifying nodes in a graph, but they have several undesirable attributes stemming from their message passing architecture. Recently, distillation methods succeeded in eliminating the use of GNNs at test time but they still require them during training. We perform a careful analysis of the role that GNNs play in distillation methods. This analysis leads us to propose a fully GNN-free approach for node classification, not requiring them at train or test time. Our method consists of three key components: smoothness constraints, pseudo-labeling iterations and neighborhood-label histograms. Our final approach can match the state-of-the-art accuracy on standard popular benchmarks such as citation and co-purchase networks, without training a GNN.
arxiv情報
著者 | Daniel Winter,Niv Cohen,Yedid Hoshen |
発行日 | 2024-02-08 18:59:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google