要約
モンテカルロ ツリー検索 (MCTS) に対する多くの機能強化は、約 20 年にわたる一般的なゲーム プレイやその他の人工知能の研究を通じて提案されてきました。
ただし、どのゲームでどの亜種がうまく機能するか、またはうまく機能しないかを特徴づけて理解する能力はまだ不足しています。
この論文では、そのような理解に向けて前進するために構築した初期データセットに関する作業について説明します。つまり、1494 の異なるゲームにわたって 61 の異なるエージェント間で 268,386 回のプレイが行われました。
予備分析について説明し、このデータセットでの予測モデルのトレーニングに取り組むとともに、学んだ教訓とデータセットの新しい改良バージョンの将来の計画について説明します。
要約(オリジナル)
Many enhancements to Monte-Carlo Tree Search (MCTS) have been proposed over almost two decades of general game playing and other artificial intelligence research. However, our ability to characterise and understand which variants work well or poorly in which games is still lacking. This paper describes work on an initial dataset that we have built to make progress towards such an understanding: 268,386 plays among 61 different agents across 1494 distinct games. We describe a preliminary analysis and work on training predictive models on this dataset, as well as lessons learned and future plans for a new and improved version of the dataset.
arxiv情報
著者 | Dennis J. N. J. Soemers,Guillaume Bams,Max Persoon,Marco Rietjens,Dimitar Sladić,Stefan Stefanov,Kurt Driessens,Mark H. M. Winands |
発行日 | 2024-06-13 15:46:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google