要約
大規模な言語モデル(LLM)のツール使用機能により、最新の外部情報にアクセスして複雑なタスクを処理できます。
この機能を強化するための現在のアプローチは、主にデータ統合による高度なモデルの蒸留に依存しています。
ただし、この方法には、高度なモデルの使用に関連する大幅なコストが発生し、多くの場合、高度なモデルとターゲットモデルの間の知識範囲の高い矛盾が導かれるデータ互換性の問題が発生します。
これらの課題に対処するために、ツール学習のための自己改善フレームワークであるToolace-Devを提案します。
まず、ツール学習目標を分解して、基本的なツール作成とツール使用能力を高めるサブタスクに分類します。
次に、軽量モデルが自己改善を可能にし、高度なLLMSへの依存を減らす自己進化パラダイムを導入します。
広範な実験では、さまざまなスケールとアーキテクチャのモデル全体でアプローチの有効性を検証します。
要約(オリジナル)
The tool-using capability of large language models (LLMs) enables them to access up-to-date external information and handle complex tasks. Current approaches to enhancing this capability primarily rely on distilling advanced models by data synthesis. However, this method incurs significant costs associated with advanced model usage and often results in data compatibility issues, led by the high discrepancy in the knowledge scope between the advanced model and the target model. To address these challenges, we propose ToolACE-DEV, a self-improving framework for tool learning. First, we decompose the tool-learning objective into sub-tasks that enhance basic tool-making and tool-using abilities. Then, we introduce a self-evolving paradigm that allows lightweight models to self-improve, reducing reliance on advanced LLMs. Extensive experiments validate the effectiveness of our approach across models of varying scales and architectures.
arxiv情報
著者 | Xu Huang,Weiwen Liu,Xingshan Zeng,Yuefeng Huang,Xinlong Hao,Yuxian Wang,Yirong Zeng,Chuhan Wu,Yasheng Wang,Ruiming Tang,Defu Lian |
発行日 | 2025-05-12 12:48:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google