Three-dimensional attention Transformer for state evaluation in real-time strategy games

要約

リアルタイム ストラテジー (RTS) ゲームにおける状況評価は、複雑な敵対環境における意思決定を理解するために重要です。
しかし、既存の方法は、多次元の特徴情報と時間依存性の処理において依然として限界があります。
ここでは、空間的注意、時間的注意、および特徴的注意という 3 つの独立しているがカスケードされたモジュールを通じて戦場の状況を効率的にモデル化する、3 次元の時空特徴変換器 (TSTF Transformer) アーキテクチャを提案します。
3,150 の敵対的実験で構成されるデータセット上で、8 層 TSTF Transformer は優れたパフォーマンスを示します。ゲーム初期に 58.7% の精度 (~4% の進捗) を達成し、従来の Timesformer の 41.8% を大幅に上回りました。
低いパフォーマンス変動 (標準偏差 0.114) を維持しながら、ゲーム中盤で 97.6% の精度に達します (~40% の進行状況)。
一方、このアーキテクチャでは、ベースライン モデル (554 万) と比較して、必要なパラメーター (475 万) が少なくなります。
私たちの研究は、RTS ゲームにおける状況評価についての新たな洞察を提供するだけでなく、Transformer ベースの多次元時間モデリングの革新的なパラダイムも提示します。

要約(オリジナル)

Situation assessment in Real-Time Strategy (RTS) games is crucial for understanding decision-making in complex adversarial environments. However, existing methods remain limited in processing multi-dimensional feature information and temporal dependencies. Here we propose a tri-dimensional Space-Time-Feature Transformer (TSTF Transformer) architecture, which efficiently models battlefield situations through three independent but cascaded modules: spatial attention, temporal attention, and feature attention. On a dataset comprising 3,150 adversarial experiments, the 8-layer TSTF Transformer demonstrates superior performance: achieving 58.7% accuracy in the early game (~4% progress), significantly outperforming the conventional Timesformer’s 41.8%; reaching 97.6% accuracy in the mid-game (~40% progress) while maintaining low performance variation (standard deviation 0.114). Meanwhile, this architecture requires fewer parameters (4.75M) compared to the baseline model (5.54M). Our study not only provides new insights into situation assessment in RTS games but also presents an innovative paradigm for Transformer-based multi-dimensional temporal modeling.

arxiv情報

著者 Yanqing Ye,Weilong Yang,Kai Qiu,Jie Zhang
発行日 2025-01-07 14:42:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク