Learning General Policies for Classical Planning Domains: Getting Beyond C$_2$

要約

計画ドメイン全体にわたる一般的なポリシーを学習するための GNN ベースのアプローチは、$C_2$ の表現力によって制限されます。
2 つの変数とカウントを使用する 1 次ロジック。
この制限は、$k=3$ の場合、オブジェクトの埋め込みがトリプレットの埋め込みで置き換えられる $k$-GNN に移行することで克服できます。
しかし、$3$-GNN は $C_3$ の表現力を持っていますが、$C_2$ に制限されている $1$-GNN や $2$-GNN とは異なり、メッセージ交換に 4 進時間と埋め込みに 3 乗空間を必要とするため、実用的ではありません。
この研究では、リレーショナル GNN のパラメーター化されたバージョンを導入します。
$t$ が無限大の場合、R-GNN[$t$] は埋め込みに二次空間のみを使用して $3$-GNN を近似します。
$t=1$ や $t=2$ など、$t$ の値が低い場合、R-GNN[$t$] は交換するメッセージの数が少なくなり、より弱い近似を実現しますが、興味深いことに、多くの場合、必要な $C_3$ 機能が得られます。
いくつかの計画領域で。
さらに、新しい R-GNN[$t$] アーキテクチャは、入力状態のみに適切な変換が適用されたオリジナルの R-GNN アーキテクチャです。
実験結果は、R-GNN[$1$] と R-GNN[$2$] がプレーンな R-GNN よりも、また同様に $3$-GNN に近いエッジ トランスフォーマーよりも明らかにパフォーマンスが向上していることを示しています。

要約(オリジナル)

GNN-based approaches for learning general policies across planning domains are limited by the expressive power of $C_2$, namely; first-order logic with two variables and counting. This limitation can be overcomed by transitioning to $k$-GNNs, for $k=3$, wherein object embeddings are substituted with triplet embeddings. Yet, while $3$-GNNs have the expressive power of $C_3$, unlike $1$- and $2$-GNNs that are confined to $C_2$, they require quartic time for message exchange and cubic space for embeddings, rendering them impractical. In this work, we introduce a parameterized version of relational GNNs. When $t$ is infinity, R-GNN[$t$] approximates $3$-GNNs using only quadratic space for embeddings. For lower values of $t$, such as $t=1$ and $t=2$, R-GNN[$t$] achieves a weaker approximation by exchanging fewer messages, yet interestingly, often yield the $C_3$ features required in several planning domains. Furthermore, the new R-GNN[$t$] architecture is the original R-GNN architecture with a suitable transformation applied to the input states only. Experimental results illustrate the clear performance gains of R-GNN[$1$] and R-GNN[$2$] over plain R-GNNs, and also over edge transformers that also approximate $3$-GNNs.

arxiv情報

著者 Simon Ståhlberg,Blai Bonet,Hector Geffner
発行日 2024-03-18 12:42:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク