要約
グラフ ニューラル ネットワークは、トレーニングされたグラフとは異なるグラフ (サイズなど) に一般化できますか?
この研究では、この問題を理論的な観点から研究します。
最近の研究では、グラフ制限、たとえばグラフォンを介してそのような伝達可能性と近似結果を確立しましたが、これらは密なグラフにのみ重要に適用されます。
有界次数グラフやべき乗則グラフなど、頻繁に遭遇する疎なグラフを含めるために、GNN を構成する集計演算など、グラフから導出される演算子の制限を考慮するという観点を採用します。
これは、最近導入されたグラホップの限界概念につながります (Backhausz and Szegedy、2022)。
検証された規則性の仮定の下で、演算子の視点を使用して、有限 GNN と無限グラフ上のその限界との間の距離、および構造特性を共有するさまざまなサイズのグラフ上の GNN 間の距離に関する定量的境界をどのように開発できるかを示します。
さまざまなグラフシーケンスに対応します。
私たちの結果は、密なグラフと疎なグラフ、およびグラフの限界に関するさまざまな概念に当てはまります。
要約(オリジナル)
Can graph neural networks generalize to graphs that are different from the graphs they were trained on, e.g., in size? In this work, we study this question from a theoretical perspective. While recent work established such transferability and approximation results via graph limits, e.g., via graphons, these only apply non-trivially to dense graphs. To include frequently encountered sparse graphs such as bounded-degree or power law graphs, we take a perspective of taking limits of operators derived from graphs, such as the aggregation operation that makes up GNNs. This leads to the recently introduced limit notion of graphops (Backhausz and Szegedy, 2022). We demonstrate how the operator perspective allows us to develop quantitative bounds on the distance between a finite GNN and its limit on an infinite graph, as well as the distance between the GNN on graphs of different sizes that share structural properties, under a regularity assumption verified for various graph sequences. Our results hold for dense and sparse graphs, and various notions of graph limits.
arxiv情報
著者 | Thien Le,Stefanie Jegelka |
発行日 | 2023-06-07 15:04:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google