要約
ルービック キューブ (RC) は、AI 研究者が効率的な代替表現と問題解決方法を探求する動機となった、計算的に難しいパズルとしてよく知られています。
ここでの計画の理想的な状況は、汎用ソルバーとヒューリスティックを使用して、問題が最適かつ効率的に標準表記で表現されて解決されることです。
現在の RC 用の最速ソルバーはカスタム表現を使用した DeepCubeA であり、もう 1 つのアプローチは State-Action-Space+ (SAS+) 表現を使用した Scorpion プランナーを使用することです。
このペーパーでは、PDDL プランナー、コンテスト、ナレッジ エンジニアリング ツールにとってドメインがよりアクセスしやすく、人間がより読みやすいドメインとなるように、一般的な PDDL 言語での最初の RC 表現を紹介します。
次に、既存のアプローチを橋渡しし、パフォーマンスを比較します。
ある比較可能な実験では、DeepCubeA (12 個の RC アクションでトレーニング済み) が、最適な計画は 78.5% のみであるにもかかわらず、さまざまな複雑さを持つすべての問題を解決することがわかりました。
同じ問題セットに対して、SAS+ 表現とパターン データベース ヒューリスティックを備えた Scorpion は 61.50% の問題を最適に解決しますが、PDDL 表現と FF ヒューリスティックを備えた FastDownward は 56.50% の問題を解決し、そのうち生成されたプランの 79.64% が最適でした。
私たちの研究は、表現の選択と計画の最適性の間のトレードオフに関する貴重な洞察を提供し、研究者が汎用の解決手法 (計画、強化学習)、ヒューリスティック、表現 (標準またはカスタム) を組み合わせた、困難な領域に対する将来の戦略を設計するのに役立ちます。
要約(オリジナル)
Rubik’s Cube (RC) is a well-known and computationally challenging puzzle that has motivated AI researchers to explore efficient alternative representations and problem-solving methods. The ideal situation for planning here is that a problem be solved optimally and efficiently represented in a standard notation using a general-purpose solver and heuristics. The fastest solver today for RC is DeepCubeA with a custom representation, and another approach is with Scorpion planner with State-Action-Space+ (SAS+) representation. In this paper, we present the first RC representation in the popular PDDL language so that the domain becomes more accessible to PDDL planners, competitions, and knowledge engineering tools, and is more human-readable. We then bridge across existing approaches and compare performance. We find that in one comparable experiment, DeepCubeA (trained with 12 RC actions) solves all problems with varying complexities, albeit only 78.5% are optimal plans. For the same problem set, Scorpion with SAS+ representation and pattern database heuristics solves 61.50% problems optimally, while FastDownward with PDDL representation and FF heuristic solves 56.50% problems, out of which 79.64% of the plans generated were optimal. Our study provides valuable insights into the trade-offs between representational choice and plan optimality that can help researchers design future strategies for challenging domains combining general-purpose solving methods (planning, reinforcement learning), heuristics, and representations (standard or custom).
arxiv情報
著者 | Bharath Muppasani,Vishal Pallagani,Biplav Srivastava,Forest Agostinelli |
発行日 | 2023-08-21 12:35:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google