要約
このペーパーでは、複雑な数学的推論タスクのパフォーマンスを向上させるために設計された、大規模言語モデル (LLM) とモンテカルロ ツリー検索 (MCTS) の革新的な統合である MCT Self-Refine (MCTSr) アルゴリズムを紹介します。
LLM、特に戦略的および数学的推論における精度と信頼性の課題に対処するため、MCTSr は体系的な探索とヒューリスティックな自己調整メカニズムを活用して、LLM 内の意思決定フレームワークを改善します。
このアルゴリズムは、探索と活用のバランスを最適化するために改良された上限信頼限界 (UCB) 式を利用して、選択、自己調整、自己評価、逆伝播の反復プロセスを通じてモンテカルロ検索ツリーを構築します。
広範な実験により、オリンピック レベルの数学問題を解く際の MCTSr の有効性が実証され、GSM8K、GSM Hard、MATH、および Math Odyssey、AIME、OlympiadBench を含むオリンピック レベルのベンチマークを含む複数のデータセットにわたる成功率が大幅に向上しました。
この研究は、複雑な推論タスクにおける LLM の適用を前進させ、将来の AI 統合の基盤を確立し、LLM 主導のアプリケーションにおける意思決定の精度と信頼性を強化します。
要約(オリジナル)
This paper introduces the MCT Self-Refine (MCTSr) algorithm, an innovative integration of Large Language Models (LLMs) with Monte Carlo Tree Search (MCTS), designed to enhance performance in complex mathematical reasoning tasks. Addressing the challenges of accuracy and reliability in LLMs, particularly in strategic and mathematical reasoning, MCTSr leverages systematic exploration and heuristic self-refine mechanisms to improve decision-making frameworks within LLMs. The algorithm constructs a Monte Carlo search tree through iterative processes of Selection, self-refine, self-evaluation, and Backpropagation, utilizing an improved Upper Confidence Bound (UCB) formula to optimize the exploration-exploitation balance. Extensive experiments demonstrate MCTSr’s efficacy in solving Olympiad-level mathematical problems, significantly improving success rates across multiple datasets, including GSM8K, GSM Hard, MATH, and Olympiad-level benchmarks, including Math Odyssey, AIME, and OlympiadBench. The study advances the application of LLMs in complex reasoning tasks and sets a foundation for future AI integration, enhancing decision-making accuracy and reliability in LLM-driven applications.
arxiv情報
著者 | Di Zhang,Jiatong Li,Xiaoshui Huang,Dongzhan Zhou,Yuqiang Li,Wanli Ouyang |
発行日 | 2024-06-11 16:01:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google