Logical Characterizations of Recurrent Graph Neural Networks with Reals and Floats

要約

2019 年の先駆的な研究で、Barcel\’o とその共著者らは、一次ロジックで定義可能なプロパティと比較して、一定反復深さのグラフ ニューラル ネットワーク (GNN) の表現力と正確に一致するロジックを特定しました。
この記事では、(1) 浮動小数点数を使用した設定と (2) 実数を使用した設定の 2 つのシナリオにおけるリカレント GNN の正確な論理的特徴を示します。
浮動小数点の場合、再帰 GNN に一致する形式主義はカウントを伴うルールベースのモーダル ロジックですが、実数の場合は、やはりカウントを伴う適切な無限モーダル ロジックを使用します。
これらの結果は、いずれの場合もバックグラウンド ロジックに相対化することなく、浮動小数点演算に関するいくつかの自然な仮定を使用して、再帰設定におけるロジックと GNN の間の正確な一致を示します。
特徴付けを適用すると、モナディック 2 次ロジック (MSO) で定義可能なグラフ プロパティと比較して、無限ロジックとルールベースのロジックが同等に表現力があることも証明されます。
これは、実数と浮動小数点をもつ再帰型 GNN が MSO で定義可能なプロパティに対して同じ表現力を持っていることを意味し、そのようなプロパティについては、実数をもつ再帰型 GNN も (有限な!) ルールベースの様相ロジックによって特徴付けられることを示しています。
対照的に、一般的な場合、浮動小数点の表現力は実数よりも弱いです。
ロジック指向の結果に加えて、分散オートマトンを介して実数と浮動小数点の両方を使用して再帰的な GNN を特徴付け、分散コンピューティング モデルへのリンクを描画します。

要約(オリジナル)

In pioneering work from 2019, Barcel\’o and coauthors identified logics that precisely match the expressive power of constant iteration-depth graph neural networks (GNNs) relative to properties definable in first-order logic. In this article, we give exact logical characterizations of recurrent GNNs in two scenarios: (1) in the setting with floating-point numbers and (2) with reals. For floats, the formalism matching recurrent GNNs is a rule-based modal logic with counting, while for reals we use a suitable infinitary modal logic, also with counting. These results give exact matches between logics and GNNs in the recurrent setting without relativising to a background logic in either case, but using some natural assumptions about floating-point arithmetic. Applying our characterizations, we also prove that, relative to graph properties definable in monadic second-order logic (MSO), our infinitary and rule-based logics are equally expressive. This implies that recurrent GNNs with reals and floats have the same expressive power over MSO-definable properties and shows that, for such properties, also recurrent GNNs with reals are characterized by a (finitary!) rule-based modal logic. In the general case, in contrast, the expressive power with floats is weaker than with reals. In addition to logic-oriented results, we also characterize recurrent GNNs, with both reals and floats, via distributed automata, drawing links to distributed computing models.

arxiv情報

著者 Veeti Ahvonen,Damian Heiman,Antti Kuusisto,Carsten Lutz
発行日 2024-07-12 13:34:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LO, F.1.1 パーマリンク