Algorithm of Thoughts: Enhancing Exploration of Ideas in Large Language Models

要約

現在の文献は、「思考連鎖」アプローチを超えることを目指しており、大規模言語モデル (LLM) の推論能力を高めるために、生成プロセスの停止、変更、再開を含む外部手法に頼ることがよくあります。
このモードではクエリ リクエストの数が増加し、コスト、メモリ、計算オーバーヘッドの増加につながります。
これに対処するために、私たちは思考のアルゴリズムを提案します。これは、アルゴリズム推論経路を通じて LLM を推進し、コンテキスト内学習の新しいモードを開拓する新しい戦略です。
アルゴリズムの例を使用することで、LLM の固有の再帰ダイナミクスを活用し、わずか 1 つまたはいくつかのクエリでアイデアの探求を拡張します。
私たちの技術は、以前の単一クエリ手法を上回り、広範なツリー検索アルゴリズムを採用した最近のマルチクエリ戦略と同等の性能を発揮します。
興味深いことに、私たちの結果は、アルゴリズムを使用して LLM に指示すると、アルゴリズム自体のパフォーマンスを超えるパフォーマンスが得られる可能性があることを示唆しており、最適化された検索に直感を織り込む LLM の固有の能力を示唆しています。
私たちは、私たちの方法の有効性の基礎と応用における微妙な違いを調査します。

要約(オリジナル)

Current literature, aiming to surpass the ‘Chain-of-Thought’ approach, often resorts to an external modus operandi involving halting, modifying, and then resuming the generation process to boost Large Language Models’ (LLMs) reasoning capacities. This mode escalates the number of query requests, leading to increased costs, memory, and computational overheads. Addressing this, we propose the Algorithm of Thoughts — a novel strategy that propels LLMs through algorithmic reasoning pathways, pioneering a new mode of in-context learning. By employing algorithmic examples, we exploit the innate recurrence dynamics of LLMs, expanding their idea exploration with merely one or a few queries. Our technique outperforms earlier single-query methods and stands on par with a recent multi-query strategy that employs an extensive tree search algorithm. Intriguingly, our results suggest that instructing an LLM using an algorithm can lead to performance surpassing that of the algorithm itself, hinting at LLM’s inherent ability to weave its intuition into optimized searches. We probe into the underpinnings of our method’s efficacy and its nuances in application.

arxiv情報

著者 Bilgehan Sel,Ahmad Al-Tawaha,Vanshaj Khattar,Ruoxi Jia,Ming Jin
発行日 2023-09-28 11:28:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク