要約
ツール拡張大規模言語モデル (LLM) は、最新の知識にアクセスし、幻覚の問題を軽減する際に広く注目を集めています。
現在、高度なクローズドソース LLM (ChatGPT など) は、プロンプトとコンテキスト内学習技術を通じて、驚くべきツール使用能力を実証しています。
ツール操作におけるオープンソース LLM (LLaMA など) の機能を強化するために、現在の取り組みは、テンプレート駆動型またはトークントリガー型のツールの使用に焦点を当てています。
ただし、前者は、ツールの対話が制限されているため、多様なユーザーのクエリに対処するための LLM の柔軟性を妨げます。一方、後者は、ツールの使用状況の学習がタスクおよびツール固有のデータセットに基づいているため、新しいツールを使用する際の汎用性を制限します。
これらの懸念を軽減するために、このホワイトペーパーでは、意思決定を認識し、一般化可能なツール使用フレームワーク (DEER) を提案します。
具体的には、まず、自動生成パイプラインを介して複数の意思決定分岐を含むツール使用サンプルを構築し、それによって多様なシナリオの下で LLM の意思決定に対する認識を刺激します。
一方、我々は、目に見えないツールに対するLLMの一般化可能性を高めるための新しいツールサンプリング戦略を提案します。
広範な実験により、私たちが提案した DEER が効果的であり、さまざまなデータセットにわたってベースラインを大幅に上回ることが実証されました。
要約(オリジナル)
Tool-augmented large language models (LLMs) are attracting widespread attention when accessing up-to-date knowledge and alleviating hallucination issues. Nowadays, advanced closed-source LLMs (e.g., ChatGPT) have demonstrated surprising tool-usage capabilities through prompting and in-context learning techniques. To empower the capabilities of open-source LLMs (e.g., LLaMA) in manipulating tools, current efforts focus on either template-driven or token-triggered tool-usage. However, the former hampers LLMs’ flexibility to address diverse user’s queries due to constrained tool interactions, while the latter limits the generalizability when engaging with new tools, since tool-usage learning is based on task- and tool-specific datasets. To alleviate these concerns, in this paper, we propose a decision-aware and generalizable tool-usage framework (DEER). Specifically, we first construct the tool-usage samples with multiple decision branches via an automatic generation pipeline, thereby inspiring the decision-making awareness of LLMs under diverse scenarios. Meanwhile, we propose a novel tool sampling strategy to enhance the generalizability of LLMs over unseen tools. Extensive experiments demonstrate that our proposed DEER is effective and significantly outperforms baselines across various datasets.
arxiv情報
著者 | Anchun Gui,Jian Li,Yong Dai,Nan Du,Han Xiao |
発行日 | 2024-08-28 14:54:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google