要約
自然言語のゲーム説明をゲーム理論の広範な形式表現に翻訳するためのフレームワークを紹介し、大規模な言語モデル(LLM)とコンテキスト内学習を活用します。
完全な情報と不完全な情報など、ゲームの戦略的複雑さのさまざまなレベルを考えると、コンテキスト内学習を直接適用するには不十分です。
これに対処するために、特殊なモジュールを備えた2段階のフレームワークを紹介して、コンテキスト内学習を強化し、問題を効果的に分割および征服できるようにします。
最初の段階では、情報セットと対応する部分ツリー構造を識別するモジュールを開発することにより、不完全な情報の課題に取り組みます。
この情報を使用すると、第2段階では、自己不開発モジュールと一緒に学習をレバレッジして、Gambitと呼ばれる認識されたゲーム理論分析ツールのPython APIであるPygambitを使用して表現される完全な広範なフォームゲームツリーを生成します。
このPython表現を使用すると、自然言語の説明から直接ナッシュ平衡を計算するなどのタスクの自動化が可能になります。
さまざまなレベルの戦略的複雑さを持つゲームでさまざまなLLMを使用して、フルフレームワークのパフォーマンスとその個々のコンポーネントを評価します。
実験結果は、このフレームワークが正確な広範なフォームゲームを生成する際にベースラインモデルを大幅に上回っており、各モジュールが成功に重要な役割を果たしていることを示しています。
要約(オリジナル)
We introduce a framework for translating game descriptions in natural language into extensive-form representations in game theory, leveraging Large Language Models (LLMs) and in-context learning. Given the varying levels of strategic complexity in games, such as perfect versus imperfect information, directly applying in-context learning would be insufficient. To address this, we introduce a two-stage framework with specialized modules to enhance in-context learning, enabling it to divide and conquer the problem effectively. In the first stage, we tackle the challenge of imperfect information by developing a module that identifies information sets along and the corresponding partial tree structure. With this information, the second stage leverages in-context learning alongside a self-debugging module to produce a complete extensive-form game tree represented using pygambit, the Python API of a recognized game-theoretic analysis tool called Gambit. Using this python representation enables the automation of tasks such as computing Nash equilibria directly from natural language descriptions. We evaluate the performance of the full framework, as well as its individual components, using various LLMs on games with different levels of strategic complexity. Our experimental results show that the framework significantly outperforms baseline models in generating accurate extensive-form games, with each module playing a critical role in its success.
arxiv情報
著者 | Shilong Deng,Yongzhao Wang,Rahul Savani |
発行日 | 2025-01-31 17:26:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google