要約
この研究では、強化学習 (RL) エージェントのパフォーマンスを使用して、モバイル パズル ゲーム Lily’s Garden のさまざまなレベルのプレイヤーの完了率として測定される難易度を推定することが妥当かどうかを調査します。この目的のために、RL エージェントをトレーニングします。
レベルを完了するために必要な移動数を測定します。
次に、これを実際のプレイヤーの大規模なサンプルのレベル完了率と比較します。レベルのプレイヤー完了率の最も強力な予測因子は、エージェントの最大 5% のベスト ランのレベルを完了するまでにかかった手数であることがわかります。
一定のレベルで。
非常に興味深い観察は、エージェントは絶対的にすべてのレベルにわたって人間レベルのパフォーマンスに達することはできないものの、レベル間の動作の違いは人間の動作の違いと高度に相関しているということです。
したがって、パフォーマンスが標準以下であっても、エージェントのパフォーマンスを使用してプレーヤーのメトリクスを推定し、おそらくはさらにモデル化することができます。
要約(オリジナル)
In this work we investigate whether it is plausible to use the performance of a reinforcement learning (RL) agent to estimate the difficulty measured as the player completion rate of different levels in the mobile puzzle game Lily’s Garden.For this purpose we train an RL agent and measure the number of moves required to complete a level. This is then compared to the level completion rate of a large sample of real players.We find that the strongest predictor of player completion rate for a level is the number of moves taken to complete a level of the ~5% best runs of the agent on a given level. A very interesting observation is that, while in absolute terms, the agent is unable to reach human-level performance across all levels, the differences in terms of behaviour between levels are highly correlated to the differences in human behaviour. Thus, despite performing sub-par, it is still possible to use the performance of the agent to estimate, and perhaps further model, player metrics.
arxiv情報
著者 | Jeppe Theiss Kristensen,Arturo Valdivia,Paolo Burelli |
発行日 | 2023-06-26 12:00:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google