The Descriptive Complexity of Graph Neural Networks

要約

タイトル: グラフニューラルネットワークの記述的複雑性
要約:
– GNNのパワーをブール回路の複雑度と記述的複雑度の観点から分析する。
– 多項式サイズの有界深さのGNNの家族が計算できるグラフクエリは、カウントとビルトイン関係を持つ一階論理のGFO + Cのガードフラグメントで定義できる。これにより、GNNは回路複雑度クラスTC ^ 0に含まれる。
– 驚くべきことに、GNF家族は任意の実数の重みと、標準ReLU、ロジスティック’sigmod’、双曲線関数を含む広範な活性化関数を使用できる。
– GNNがランダム初期化とグローバルリードアウト(実践的に広く使用されている両方の機能)を使用できる場合、閾値ゲートを持つ有界深度ブール回路とまったく同じクエリを計算できる。つまり、正確にTC ^ 0のクエリを計算できる。
– さらに、区分線形アクティベーションと有理数の重みを持つ単一のGNNによって計算できるクエリは、ビルトイン関係を持たないGFO + Cで定義できるため、一様TC ^ 0に含まれる。

要約(オリジナル)

We analyse the power of graph neural networks (GNNs) in terms of Boolean circuit complexity and descriptive complexity. We prove that the graph queries that can be computed by a polynomial-size bounded-depth family of GNNs are exactly those definable in the guarded fragment GFO+C of first-order logic with counting and with built-in relations. This puts GNNs in the circuit complexity class TC^0. Remarkably, the GNN families may use arbitrary real weights and a wide class of activation functions that includes the standard ReLU, logistic ‘sigmod’, and hyperbolic tangent functions. If the GNNs are allowed to use random initialisation and global readout (both standard features of GNNs widely used in practice), they can compute exactly the same queries as bounded depth Boolean circuits with threshold gates, that is, exactly the queries in TC^0. Moreover, we show that queries computable by a single GNN with piecewise linear activations and rational weights are definable in GFO+C without built-in relations. Therefore, they are contained in uniform TC^0.

arxiv情報

著者 Martin Grohe
発行日 2023-04-21 15:30:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CC, cs.LG, cs.LO パーマリンク