Behavioural Cloning in VizDoom

要約

この論文では、ピクセル データのみを入力として使用し、模倣学習 (IL) を通じてゲーム「Doom 2」をプレイする自律エージェントをトレーニングする方法について説明します。
また、カメラの動きと軌跡データを比較することで、強化学習 (RL) と IL が人間らしさに関してどのように比較されるかを調査します。
行動のクローニングを通じて、さまざまな行動特性を学習する個々のモデルの能力を調べます。
私たちは、さまざまなプレイ スタイルで実際のプレイヤーの行動を模倣しようと試み、攻撃的、受動的、または単純に従来の AI よりも人間に近い行動をするエージェントをトレーニングできることを発見しました。
私たちは、ビデオ ゲームのエージェントに、より深みと人間らしい動作を導入するこれらの方法を提案します。
訓練された IL エージェントは、データセット内の平均的なプレーヤーと同等のパフォーマンスを示しますが、最悪のプレーヤーよりも優れたパフォーマンスを示します。
パフォーマンスは一般的な RL アプローチほど強力ではありませんでしたが、より強力な人間に似た行動特性をエージェントに提供します。

要約(オリジナル)

This paper describes methods for training autonomous agents to play the game ‘Doom 2’ through Imitation Learning (IL) using only pixel data as input. We also explore how Reinforcement Learning (RL) compares to IL for humanness by comparing camera movement and trajectory data. Through behavioural cloning, we examine the ability of individual models to learn varying behavioural traits. We attempt to mimic the behaviour of real players with different play styles, and find we can train agents that behave aggressively, passively, or simply more human-like than traditional AIs. We propose these methods of introducing more depth and human-like behaviour to agents in video games. The trained IL agents perform on par with the average players in our dataset, whilst outperforming the worst players. While performance was not as strong as common RL approaches, it provides much stronger human-like behavioural traits to the agent.

arxiv情報

著者 Ryan Spick,Timothy Bradley,Ayush Raina,Pierluigi Vito Amadori,Guy Moss
発行日 2024-01-08 16:15:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク