要約
私たちは、アクションのランク付けの学習に基づいて、古典的な計画のための関係ポリシーを学習するための新しいアプローチを提案します。
アクション情報を明示的に取得する新しいグラフ表現を導入し、アクションのランキングを学習するためにゲート付きリカレント ユニット (GRU) で強化されたグラフ ニューラル ネットワーク アーキテクチャを提案します。
私たちのモデルは、小規模な問題インスタンスでトレーニングされ、従来の計画では計算コストが高くなる非常に大きなインスタンスに一般化されます。
標準的な計画ベンチマークにわたる実験結果は、アクションのランク付けアプローチが、トレーニングで使用される問題よりもはるかに大きな問題への一般化を達成していることを示しています。
要約(オリジナル)
We propose a novel approach to learn relational policies for classical planning based on learning to rank actions. We introduce a new graph representation that explicitly captures action information and propose a Graph Neural Network architecture augmented with Gated Recurrent Units (GRUs) to learn action rankings. Our model is trained on small problem instances and generalizes to significantly larger instances where traditional planning becomes computationally expensive. Experimental results across standard planning benchmarks demonstrate that our action-ranking approach achieves generalization to significantly larger problems than those used in training.
arxiv情報
著者 | Rajesh Mangannavar,Stefan Lee,Alan Fern,Prasad Tadepalli |
発行日 | 2025-01-08 18:23:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google