要約
最近導入された Tree of Thoughts (ToT) は、大規模言語モデル (LLM) がグローバルな意思決定の先見と後戻りを通じて推論できるようにする進歩を告げるものの、中間の意思決定ポイントまたは「思考」に固有のローカルな不確実性を見落としてきました。
これらの局所的な不確実性は、多様な応答の可能性を考慮した LLM に固有のものであり、推論プロセスにおいて依然として重大な懸念事項です。
この極めて重要なギャップに対処するために、LLM 向けに調整された推論フレームワークである Tree of Uncertain Thoughts (TouT) を導入します。
私たちの TouT は、モンテカルロ ドロップアウトを効果的に活用して、これらの中間ステップでの LLM の多様な局所応答に関連する不確実性スコアを定量化します。
この局所的な不確実性の定量化とグローバル検索アルゴリズムを組み合わせることで、TouT は応答生成におけるモデルの精度を向上させます。
私たちは、24 のゲームとミニ クロスワードという 2 つの要求の厳しい計画タスクに関する厳密な実験によってアプローチを実証します。
経験的証拠は、ToT と思考連鎖を促す方法の両方に対する TouT の優位性を強調しています。
要約(オリジナル)
While the recently introduced Tree of Thoughts (ToT) has heralded advancements in allowing Large Language Models (LLMs) to reason through foresight and backtracking for global decision-making, it has overlooked the inherent local uncertainties in intermediate decision points or ‘thoughts’. These local uncertainties, intrinsic to LLMs given their potential for diverse responses, remain a significant concern in the reasoning process. Addressing this pivotal gap, we introduce the Tree of Uncertain Thoughts (TouT) – a reasoning framework tailored for LLMs. Our TouT effectively leverages Monte Carlo Dropout to quantify uncertainty scores associated with LLMs’ diverse local responses at these intermediate steps. By marrying this local uncertainty quantification with global search algorithms, TouT enhances the model’s precision in response generation. We substantiate our approach with rigorous experiments on two demanding planning tasks: Game of 24 and Mini Crosswords. The empirical evidence underscores TouT’s superiority over both ToT and chain-of-thought prompting methods.
arxiv情報
著者 | Shentong Mo,Miao Xin |
発行日 | 2023-09-14 13:14:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google