要約
意思決定タスクを解決するとき、人間は通常、2 つの主要なソースからの情報に依存します。(1) 環境からの対話の再生を提供する歴史的な政策データ、(2) 貴重な思考プロセスや戦略を明らかにする自然言語形式の分析的洞察
考慮事項。
それにもかかわらず、先行研究の大部分は 1 つの情報源のみに焦点を当てています。政策または価値関数を直接学習するために歴史再生のみを使用するか、単なる言語コーパスを利用した言語モデルのトレーニングに従事しています。
この論文では、強力な自律エージェントが両方のソースをカバーする必要があると主張します。
したがって、我々は、チェス ゲームのこれら 2 つのソースからのデータを統合することによって、ポリシー学習と言語モデリングを橋渡しする GPT モデルである ChessGPT を提案します。
具体的には、チェスに関連する大規模なゲームと言語のデータセットを構築します。
データセットを活用して、ポリシー学習と言語モデリングを統合した 2 つのモデル例 ChessCLIP と ChessGPT を紹介します。
最後に、言語モデルのチェス能力を評価するための完全な評価フレームワークを提案します。
実験結果により、モデルとデータセットの有効性が検証されます。
コード、モデル、データセットは https://github.com/waterhorse1/ChessGPT でオープンソースです。
要約(オリジナル)
When solving decision-making tasks, humans typically depend on information from two key sources: (1) Historical policy data, which provides interaction replay from the environment, and (2) Analytical insights in natural language form, exposing the invaluable thought process or strategic considerations. Despite this, the majority of preceding research focuses on only one source: they either use historical replay exclusively to directly learn policy or value functions, or engaged in language model training utilizing mere language corpus. In this paper, we argue that a powerful autonomous agent should cover both sources. Thus, we propose ChessGPT, a GPT model bridging policy learning and language modeling by integrating data from these two sources in Chess games. Specifically, we build a large-scale game and language dataset related to chess. Leveraging the dataset, we showcase two model examples ChessCLIP and ChessGPT, integrating policy learning and language modeling. Finally, we propose a full evaluation framework for evaluating language model’s chess ability. Experimental results validate our model and dataset’s effectiveness. We open source our code, model, and dataset at https://github.com/waterhorse1/ChessGPT.
arxiv情報
著者 | Xidong Feng,Yicheng Luo,Ziyan Wang,Hongrui Tang,Mengyue Yang,Kun Shao,David Mguni,Yali Du,Jun Wang |
発行日 | 2023-12-21 16:59:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google