Large Language Models as Tool Makers

要約

最近の研究では、外部ツールの使用により大規模言語モデル (LLM) の問題解決能力を強化できる可能性が示されています。
ただし、これに沿った以前の作業は、既存のツールが利用できるかどうかに依存します。
この研究では、LLM が問題解決のための独自の再利用可能なツールを作成する、LLM As Tool Makers (LATM) と呼ばれる閉ループ フレームワークを提案することで、この依存関係を取り除くための最初の一歩を踏み出します。
私たちのアプローチは 2 つの主要なフェーズで構成されます。 1) ツール作成: LLM は、与えられたタスク用のツールを作成するツール作成者として機能し、ツールは Python ユーティリティ関数として実装されます。
2) ツールの使用: LLM はツール ユーザーとして機能し、問題解決のためにツール メーカーが構築したツールを適用します。
ツール ユーザーは、ツール メーカーと同じ LLM であっても、異なる LLM であっても構いません。
ツール作成により、LLM はさまざまなリクエストに適用できるツールを継続的に生成できるため、タスクの解決に有益な場合には将来のリクエストで対応する API を呼び出すことができます。
さらに、ツール作成フェーズとツール使用フェーズの LLM 間の分業により、生成されたツールと問題解決策の品質を低下させることなく、コスト効率を達成する機会がもたらされます。
たとえば、ツールの作成にはツールの使用よりも高度な機能が必要であることを認識すると、ツールの作成者として強力ではあるがリソースを大量に消費するモデルを適用し、ツールのユーザーとして軽量だがコスト効率の高いモデルを適用できます。
私たちは、ビッグベンチ タスクを含むさまざまな複雑な推論タスクにわたってアプローチの有効性を検証します。
ツール作成者として GPT-4、ツール ユーザーとして GPT-3.5 を使用すると、LATM は、ツール作成とツール使用の両方に GPT-4 を使用した場合と同等のパフォーマンスを達成できると同時に、推論コストが大幅に削減されます。

要約(オリジナル)

Recent research shows the potential of enhancing the problem-solving ability of large language models (LLMs) through the use of external tools. However, prior work along this line depends on the availability of existing tools. In this work, we take an initial step towards removing this dependency by proposing a closed-loop framework, referred to as LLMs As Tool Makers (LATM), where LLMs create their own reusable tools for problem-solving. Our approach consists of two key phases: 1) tool making: an LLM acts as the tool maker that crafts tools for given tasks, where a tool is implemented as a Python utility function. 2) tool using: an LLM acts as the tool user, which applies the tool built by the tool maker for problem-solving. The tool user can be either the same or a different LLM from the tool maker. Tool-making enables an LLM to continually generate tools that can be applied to different requests so that future requests can call the corresponding APIs when beneficial for solving the tasks. Furthermore, the division of labor among LLMs for tool-making and tool-using phases introduces the opportunity to achieve cost effectiveness without degrading the quality of generated tools and problem solutions. For example, recognizing that tool-making demands more sophisticated capabilities than tool-using, we can apply a powerful yet resource-intensive model as the tool maker, and a lightweight while cost-effective model as the tool user. We validate the effectiveness of our approach across a variety of complex reasoning tasks, including Big-Bench tasks. With GPT-4 as the tool maker and GPT-3.5 as the tool user, LATM can achieve performance that is on par with using GPT-4 for both tool making and tool using, while the inference cost is significantly reduced.

arxiv情報

著者 Tianle Cai,Xuezhi Wang,Tengyu Ma,Xinyun Chen,Denny Zhou
発行日 2023-05-26 17:50:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ML パーマリンク