要約
フィクティシャス プレイと組み合わせた深層強化学習は、多くのベンチマーク ゲームで印象的な結果を示していますが、そのほとんどはシングル ステージです。
対照的に、実際の意思決定の問題は複数の段階で構成されている場合があり、観察空間と行動空間は段階ごとに完全に異なる場合があります。
2 段階の戦略カード ゲーム Legends of Code and Magic を研究し、多段階のゲームで発生する問題に対処するためのエンド ツー エンドのポリシーを提案します。
また、2 人用ゲームのナッシュ均衡を見つけるための楽観的でスムーズな架空のプレイ アルゴリズムも提案します。
私たちのアプローチは、COG2022 コンペティションのダブル チャンピオンシップを獲得します。
広範な研究により、私たちのアプローチの進歩が検証され、示されています。
要約(オリジナル)
Deep Reinforcement Learning combined with Fictitious Play shows impressive results on many benchmark games, most of which are, however, single-stage. In contrast, real-world decision making problems may consist of multiple stages, where the observation spaces and the action spaces can be completely different across stages. We study a two-stage strategy card game Legends of Code and Magic and propose an end-to-end policy to address the difficulties that arise in multi-stage game. We also propose an optimistic smooth fictitious play algorithm to find the Nash Equilibrium for the two-player game. Our approach wins double championships of COG2022 competition. Extensive studies verify and show the advancement of our approach.
arxiv情報
著者 | Wei Xi,Yongxin Zhang,Changnan Xiao,Xuefeng Huang,Shihong Deng,Haowei Liang,Jie Chen,Peng Sun |
発行日 | 2023-03-07 17:55:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google