要約
この論文では、さまざまなスパース レベルの調整を可能にする、スパース ランダム グラフ モデルに基づく大規模スパース グラフ ダウンサンプリング方法を提案します。
スパース性とトポロジー的類似性を組み合わせます。スパース グラフ モデルは、グラフ サイズが増加するにつれてノード接続確率を低下させますが、ダウンサンプリング手法は、この変更中に特定のトポロジー的接続パターンを保存します。
ダウンサンプリング手法に基づいて、ダウンサンプリング スパース グラフ畳み込みネットワーク (GCN) に関する理論的な転送可能限界を導き出します。つまり、サンプリング レートが高く、平均次数の期待値が大きく、初期グラフ サイズが小さいほど、ダウンサンプリングの転送可能性のパフォーマンスが向上します。
要約(オリジナル)
In this paper, we propose a large-scale sparse graph downsampling method based on a sparse random graph model, which allows for the adjustment of different sparsity levels. We combine sparsity and topological similarity: the sparse graph model reduces the node connection probability as the graph size increases, while the downsampling method preserves a specific topological connection pattern during this change. Based on the downsampling method, we derive a theoretical transferability bound about downsampling sparse graph convolutional networks (GCNs), that higher sampling rates, greater average degree expectations, and smaller initial graph sizes lead to better downsampling transferability performance.
arxiv情報
| 著者 | Qinji Shu,Hang Sheng,Hui Feng,Bo Hu |
| 発行日 | 2024-08-30 13:19:20+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google