要約
大規模言語モデル (LLM) の最近の進歩は、複雑な問題を「思考」と呼ばれる、より管理しやすい言語シーケンスに分解することにより、意思決定に革命をもたらしました。
効果的な思考設計では、パフォーマンス、効率、柔軟性という 3 つの重要な観点を考慮する必要があります。
ただし、既存の思考は、これらの属性のうち最大でも 2 つを示すことができます。
これらの制限に対処するために、既存の思考パラダイムの「ペンローズ三角形」の法則に反する、「Everything of Thoughts」(XoT)と呼ばれる新しい思考促進アプローチを導入します。
XoT は、事前トレーニング済み強化学習とモンテカルロ木探索 (MCTS) を活用して、外部ドメインの知識を思考に組み込むことで、LLM の能力を強化し、目に見えない問題に効率的に一般化できるようにします。
このアプローチは、MCTS-LLM 共同思考修正フレームワークの利用を通じて、最小限の LLM インタラクションで高品質の包括的な認知マッピングを自律的に生成します。
さらに、XoT は LLM が制約のない思考に取り組むことを可能にし、複数の解決策を伴う問題に対して柔軟な認知マッピングを可能にします。
私たちは、Game of 24、8-Puzzle、Pocket Cube など、いくつかの困難なマルチソリューションの問題解決タスクで XoT を評価します。
私たちの結果は、XoT が既存のアプローチよりも大幅に優れていることを示しています。
特に、XoT は 1 回の LLM 呼び出しで複数のソリューションを生成でき、さまざまなドメインにわたる複雑な問題に対処する際の優れた能力を示しています。
要約(オリジナル)
Recent advancements in Large Language Models (LLMs) have revolutionized decision-making by breaking down complex problems into more manageable language sequences referred to as ‘thoughts’. An effective thought design should consider three key perspectives: performance, efficiency, and flexibility. However, existing thought can at most exhibit two of these attributes. To address these limitations, we introduce a novel thought prompting approach called ‘Everything of Thoughts’ (XoT) to defy the law of ‘Penrose triangle of existing thought paradigms. XoT leverages pretrained reinforcement learning and Monte Carlo Tree Search (MCTS) to incorporate external domain knowledge into thoughts, thereby enhancing LLMs’ capabilities and enabling them to generalize to unseen problems efficiently. Through the utilization of the MCTS-LLM collaborative thought revision framework, this approach autonomously produces high-quality comprehensive cognitive mappings with minimal LLM interactions. Additionally, XoT empowers LLMs to engage in unconstrained thinking, allowing for flexible cognitive mappings for problems with multiple solutions. We evaluate XoT on several challenging multi-solution problem-solving tasks, including Game of 24, 8-Puzzle, and Pocket Cube. Our results demonstrate that XoT significantly outperforms existing approaches. Notably, XoT can yield multiple solutions with just one LLM call, showcasing its remarkable proficiency in addressing complex problems across diverse domains.
arxiv情報
著者 | Ruomeng Ding,Chaoyun Zhang,Lu Wang,Yong Xu,Minghua Ma,Wei Zhang,Si Qin,Saravan Rajmohan,Qingwei Lin,Dongmei Zhang |
発行日 | 2024-02-23 15:09:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google