要約
大規模言語モデル (LLM) の最近の進歩により、多様な推論パスを探索するためのツリー検索などの複数ステップの推論手法を必要とするさまざまな複雑なタスクにおいて、顕著な可能性が示されています。
ただし、既存の方法では、計算の非効率性と冗長性が問題になることがよくあります。
まず、タスクの難しさの多様性を見落としており、簡単なタスクであっても不必要に広範な検索を行うことになります。
第 2 に、推論パスの意味論が無視され、その結果、意味論的に同一のパスが冗長に探索されることになります。
これらの制限に対処するために、計算効率の高い手法である Semantic Exploration with Adaptive Gating (SEAG) を提案します。
SEAG は、前述の単純な推論方法からの回答の信頼レベルに基づいて、ツリー検索を実行するかどうかを動的に決定する適応ゲート メカニズムを採用しています。
さらに、ツリーベースの探索により、意味的に同一の推論ステップが統合され、精度を維持または向上させながら、冗長な探索が削減されます。
私たちの広範な実験により、Llama2、Llama3、Mistral などの多様な言語モデルを備えた GSM8K や ARC などの複雑な推論ベンチマークにおいて、SEAG は既存のツリー検索ベースの手法と比較して、計算コストを 31% しか必要とせずに、精度が平均 4.3% 大幅に向上することが実証されました。
。
要約(オリジナル)
Recent advancements in large language models (LLMs) have shown remarkable potential in various complex tasks requiring multi-step reasoning methods like tree search to explore diverse reasoning paths. However, existing methods often suffer from computational inefficiency and redundancy. First, they overlook the diversity of task difficulties, leading to unnecessarily extensive searches even for easy tasks. Second, they neglect the semantics of reasoning paths, resulting in redundant exploration of semantically identical paths. To address these limitations, we propose Semantic Exploration with Adaptive Gating (SEAG), a computationally efficient method. SEAG employs an adaptive gating mechanism that dynamically decides whether to conduct a tree search, based on the confidence level of answers from a preceding simple reasoning method. Furthermore, its tree-based exploration consolidates semantically identical reasoning steps, reducing redundant explorations while maintaining or even improving accuracy. Our extensive experiments demonstrate that SEAG significantly improves accuracy by 4.3% on average while requiring only 31% of computational costs compared to existing tree search-based methods on complex reasoning benchmarks including GSM8K and ARC with diverse language models such as Llama2, Llama3, and Mistral.
arxiv情報
著者 | Sungjae Lee,Hyejin Park,Jaechang Kim,Jungseul Ok |
発行日 | 2025-01-10 07:02:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google