要約
思考連鎖 (CoT) は、複雑な推論タスクにおける大規模言語モデル (LLM) のパフォーマンスを強化できる推論フレームワークです。
特に、CoT に関連するさまざまな研究の中で、マルチパス推論は、シンプルかつ効果的な改善として際立っています。
ただし、推論パスの数に最適な設定はありません。
したがって、より良い結果を得るには推論パスの数を増やす必要があり、推論コストが増加します。
この制限に対処するために、質問関連のロール テンプレートを利用して LLM を関連するロールに誘導することで、各パスの正しい推論の可能性が高まり、推論の精度を向上させながら推論パスの数への依存をさらに減らすことができます。
ただし、LLM を特定の役割に配置すると、役割の依存性が低いいくつかのタスクにおける推論の多様性とパフォーマンスが低下する可能性があります。
LLM の特定の役割への過度の没入を軽減するために、役割固有の LLM からの生成と一般的な LLM の生成のバランスをとった各パスでゲーム システムを構築することで、効果的な役割の採用と多様性の両方を確保する Nash CoT を提案します。
LLM 生成では、推論パスの数の要件を削減しながら、マルチパス推論のパフォーマンスをさらに維持します。
アラビア語推論、常識質問応答、記号推論などのさまざまな推論タスクにわたって Nash CoT を評価し、同じ数の推論パスを使用したマルチパス CoT と同等以上の結果を達成しました。
要約(オリジナル)
Chain of thought (CoT) is a reasoning framework that can enhance the performance of Large Language Models (LLMs) on complex inference tasks. In particular, among various studies related to CoT, multi-path inference stands out as a simple yet effective improvement. However, there is no optimal setting for the number of inference paths. Therefore, we have to increase the number of inference paths to obtain better results, which in turn increases the inference cost. To address this limitation, we can utilize question-related role templates to guide LLMs into relevant roles, thereby increasing the possibility of correct inferences for each path and further reducing dependence on the number of inference paths while improving reasoning accuracy. However, placing LLMs into specific roles may reduce their reasoning diversity and performance on a few tasks where role dependence is low. To alleviate the excessive immersion of the LLM into a specific role, we propose Nash CoT by constructing a game system on each path that balances the generation from role-specific LLMs’ and the general LLMs’ generation, thereby ensuring both effective role adoption and diversity in LLM generation further maintaining the performance of multi-path inference while reducing the requirement of the number of inference paths. We evaluate Nash CoT across various inference tasks, including Arabic Reasoning, Commonsense Question Answering, and Symbolic Inference, achieving results that are comparable to or better than those of multi-path CoT with the equal number of inference paths.
arxiv情報
著者 | Ziqi Zhang,Cunxiang Wang,Xiong Xiao,Yue Zhang,Donglin Wang |
発行日 | 2024-12-30 13:43:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google