The Transferability of Downsampling Sparse Graph Convolutional Networks

要約

この論文では、さまざまなスパース レベルの調整を可能にする、スパース ランダム グラフ モデルに基づく大規模スパース グラフ ダウンサンプリング方法を提案します。
スパース性とトポロジー的類似性を組み合わせます。スパース グラフ モデルは、グラフ サイズが増加するにつれてノード接続確率を低下させますが、ダウンサンプリング手法は、この変更中に特定のトポロジー的接続パターンを保存します。
ダウンサンプリング手法に基づいて、ダウンサンプリング スパース グラフ畳み込みネットワーク (GCN) に関する理論的な転送可能限界を導き出します。つまり、サンプリング レートが高く、平均次数の期待値が大きく、初期グラフ サイズが小さいほど、ダウンサンプリングの転送可能性のパフォーマンスが向上します。

要約(オリジナル)

In this paper, we propose a large-scale sparse graph downsampling method based on a sparse random graph model, which allows for the adjustment of different sparsity levels. We combine sparsity and topological similarity: the sparse graph model reduces the node connection probability as the graph size increases, while the downsampling method preserves a specific topological connection pattern during this change. Based on the downsampling method, we derive a theoretical transferability bound about downsampling sparse graph convolutional networks (GCNs), that higher sampling rates, greater average degree expectations, and smaller initial graph sizes lead to better downsampling transferability performance.

arxiv情報

著者 Qinji Shu,Hang Sheng,Hui Feng,Bo Hu
発行日 2024-08-30 13:19:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク