Representation Matters for Mastering Chess: Improved Feature Representation in AlphaZero Outperforms Switching to Transformers

要約

トランスフォーマーは人工知能 (AI) の多用途ツールとして認識されてきましたが、古典的な AI ベンチマークであるチェスのコンテキストでは未踏の課題が生じています。
ここで、ビジョン トランスフォーマー (ViT) を AlphaZero に組み込むだけでは、主に ViT の計算上の限界により、チェスをマスターするには不十分です。
MobileNet と NextViT を組み合わせて効率を最適化する試みは、AlphaZero を約 30 Elo 上回りました。
ただし、入力表現と値損失関数の単純な変更を伴う実際的な改善を提案します。
その結果、チェスの AlphaZero で現在達成可能なパフォーマンスを超えて、最大 180 Elo ポイントという大幅なパフォーマンス向上を達成しました。
これらの改善に加え、統合勾配技術を使用した実験結果により、新しく導入された機能の有効性が確認されました。

要約(オリジナル)

While transformers have gained recognition as a versatile tool for artificial intelligence (AI), an unexplored challenge arises in the context of chess – a classical AI benchmark. Here, incorporating Vision Transformers (ViTs) into AlphaZero is insufficient for chess mastery, mainly due to ViTs’ computational limitations. The attempt to optimize their efficiency by combining MobileNet and NextViT outperformed AlphaZero by about 30 Elo. However, we propose a practical improvement that involves a simple change in the input representation and value loss functions. As a result, we achieve a significant performance boost of up to 180 Elo points beyond what is currently achievable with AlphaZero in chess. In addition to these improvements, our experimental results using the Integrated Gradient technique confirm the effectiveness of the newly introduced features.

arxiv情報

著者 Johannes Czech,Jannis Blüml,Kristian Kersting,Hedinn Steingrimsson
発行日 2024-08-20 16:49:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク