Enhancing Commentary Strategies for Imperfect Information Card Games: A Study of Large Language Models in Guandan Commentary

要約

大規模な言語モデル(LLMS)の最近の進歩により、高品質のゲームコメントを生成する可能性が解き放たれました。
ただし、不完全な情報を持つ複雑なゲームの洞察に富んだ魅力的な解説を作成することは、依然として大きな課題です。
このホワイトペーパーでは、補強学習(RL)とLLMSを組み合わせた新しい解説方法を紹介します。
私たちのシステムはRLを活用して複雑なカードプレイシナリオを生成し、LLMを採用して対応する解説テキストを生成し、プロのコメンテーターの戦略的分析と物語の才能を効果的にエミュレートします。
このフレームワークは、州の解説ガイド、Mindの理論(TOM)ベースの戦略分析装置、およびスタイル検索モジュールで構成されており、中国語環境で詳細かつコンテキスト関連のゲーム解説を提供するためにシームレスに協力しています。
LLMSにTOM機能を強化し、検索と情報のフィルタリングメカニズムの両方を改良します。
これにより、パーソナライズされた解説コンテンツの生成が容易になります。
実験結果は、オープンソースLLMSに適用されたときに提案された解説フレームワークによって達成されたパフォーマンスの大幅な向上を示し、複数の評価メトリックにわたってGPT-4のパフォーマンスを上回ります。

要約(オリジナル)

Recent advancements in large language models (LLMs) have unlocked the potential for generating high-quality game commentary. However, producing insightful and engaging commentary for complex games with incomplete information remains a significant challenge. In this paper, we introduce a novel commentary method that combine Reinforcement Learning (RL) and LLMs, tailored specifically for the Chinese card game \textit{Guandan}. Our system leverages RL to generate intricate card-playing scenarios and employs LLMs to generate corresponding commentary text, effectively emulating the strategic analysis and narrative prowess of professional commentators. The framework comprises a state commentary guide, a Theory of Mind (ToM)-based strategy analyzer, and a style retrieval module, which seamlessly collaborate to deliver detailed and context-relevant game commentary in the Chinese language environment. We empower LLMs with ToM capabilities and refine both retrieval and information filtering mechanisms. This facilitates the generation of personalized commentary content. Our experimental results showcase the substantial enhancement in performance achieved by the proposed commentary framework when applied to open-source LLMs, surpassing the performance of GPT-4 across multiple evaluation metrics.

arxiv情報

著者 Meiling Tao,Xuechen Liang,Xinyuan Song,Yangfan He,Yiling Tao,Jianhui Wang,Sun Li Tianyu Shi
発行日 2025-04-15 15:28:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク