要約
大規模言語モデル (LLM) は、優れた推論能力を実証しており、さまざまな複雑な問題を解決できます。
最近、この能力はツール学習のパラダイムに適用されています。
ツールの学習には、ツールの使用例とそれに対応する機能の提供が含まれ、LLM が計画を策定し、各ツールを呼び出して実行するプロセスをデモンストレーションできるようになります。
LLM は、単独では完了できないタスクに対処できるため、さまざまなタスクにわたって潜在力を高めることができます。
ただし、このアプローチには 2 つの重要な課題があります。
まず、冗長なエラー修正により、計画が不安定になり、実行時間が長くなります。
さらに、複数のツール間で正しい計画を設計することも、ツール学習における課題です。
これらの問題に対処するために、ツールキットに基づくタスク処理フレームワークである Tool-Planner を提案します。
Tool-Planner は、同じ機能を持つ API 関数に基づいてツールをツールキットにグループ化し、LLM がさまざまなツールキットにわたって計画を実装できるようにします。
ツール エラーが発生した場合、言語モデルはツールキットに基づいてツールを再選択し、調整できます。
実験では、私たちのアプローチがさまざまなデータセットにわたって高い合格率と勝率を示し、GPT-4 や Claude 3 などのモデルでのツール学習の計画スキームを最適化することが示され、私たちの手法の可能性が示されています。
要約(オリジナル)
Large language models (LLMs) have demonstrated exceptional reasoning capabilities, enabling them to solve various complex problems. Recently, this ability has been applied to the paradigm of tool learning. Tool learning involves providing examples of tool usage and their corresponding functions, allowing LLMs to formulate plans and demonstrate the process of invoking and executing each tool. LLMs can address tasks that they cannot complete independently, thereby enhancing their potential across different tasks. However, this approach faces two key challenges. First, redundant error correction leads to unstable planning and long execution time. Additionally, designing a correct plan among multiple tools is also a challenge in tool learning. To address these issues, we propose Tool-Planner, a task-processing framework based on toolkits. Tool-Planner groups tools based on the API functions with the same function into a toolkit and allows LLMs to implement planning across the various toolkits. When a tool error occurs, the language model can reselect and adjust tools based on the toolkit. Experiments show that our approach demonstrates a high pass and win rate across different datasets and optimizes the planning scheme for tool learning in models such as GPT-4 and Claude 3, showcasing the potential of our method.
arxiv情報
著者 | Yanming Liu,Xinyue Peng,Yuwei Zhang,Jiannan Cao,Xuhong Zhang,Sheng Cheng,Xun Wang,Jianwei Yin,Tianyu Du |
発行日 | 2024-06-06 07:30:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google