要約
大規模言語モデル (LLM) の精度、効率、堅牢性を向上させるための、斬新で汎用性の高い思考拡張推論アプローチである Buffer of Thoughts (BoT) を紹介します。
具体的には、さまざまなタスクにわたる問題解決プロセスから抽出された、一連の有益な高レベルの思考、つまり思考テンプレートを保存するためのメタバッファを提案します。
次に、問題ごとに、関連する思考テンプレートを取得し、それを特定の推論構造で適応的にインスタンス化し、効率的な推論を実行します。
スケーラビリティと安定性を保証するために、メタバッファを動的に更新するバッファマネージャをさらに提案します。これにより、より多くのタスクが解決されるにつれてメタバッファの容量が強化されます。
私たちは、推論を必要とする 10 の困難なタスクについて広範な実験を実施し、以前の SOTA 手法と比較して大幅なパフォーマンス向上を達成しました。24 番ゲームで 11%、幾何学的形状で 20%、Checkmate-in-One で 51% でした。
さらなる分析により、当社の BoT の優れた一般化能力とモデルの堅牢性が実証され、その一方で必要なコストは、マルチクエリ プロンプト手法 (思考のツリー/グラフなど) のコストの平均 12% のみです。
特に、Llama3-8B+BoT は Llama3-70B モデルを超える可能性があることがわかりました。
私たちのプロジェクトは、https://github.com/YangLing0818/buffer-of-thought-llm から入手できます。
要約(オリジナル)
We introduce Buffer of Thoughts (BoT), a novel and versatile thought-augmented reasoning approach for enhancing accuracy, efficiency and robustness of large language models (LLMs). Specifically, we propose meta-buffer to store a series of informative high-level thoughts, namely thought-template, distilled from the problem-solving processes across various tasks. Then for each problem, we retrieve a relevant thought-template and adaptively instantiate it with specific reasoning structures to conduct efficient reasoning. To guarantee the scalability and stability, we further propose buffer-manager to dynamically update the meta-buffer, thus enhancing the capacity of meta-buffer as more tasks are solved. We conduct extensive experiments on 10 challenging reasoning-intensive tasks, and achieve significant performance improvements over previous SOTA methods: 11% on Game of 24, 20% on Geometric Shapes and 51% on Checkmate-in-One. Further analysis demonstrate the superior generalization ability and model robustness of our BoT, while requiring only 12% of the cost of multi-query prompting methods (e.g., tree/graph of thoughts) on average. Notably, we find that our Llama3-8B+BoT has the potential to surpass Llama3-70B model. Our project is available at: https://github.com/YangLing0818/buffer-of-thought-llm
arxiv情報
著者 | Ling Yang,Zhaochen Yu,Tianjun Zhang,Shiyi Cao,Minkai Xu,Wentao Zhang,Joseph E. Gonzalez,Bin Cui |
発行日 | 2024-06-06 17:22:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google