要約
エージェント指向の事前トレーニングデータが不足しているため、LLMベースの自律剤は通常、複雑な促進または広範な微調整に依存しています。
API関数呼び出し、本質的な推論と計画、および環境フィードバックへの適応におけるLLMエージェントの基本能力を強化するように設計された最初の大規模なトレーニング前コーパスであるHephaestus-Forgeを紹介します。
Hephaestus-forgeは、API関数の知識を導入するためのツールドキュメントと、本質的な推論を強化するための軌跡を呼び出す関数の両方のツールドキュメントを含む、76,537のAPIを含む103Bエージェント固有のデータで構成されています。
効果的なトレーニングプロトコルを調査するために、スケーリング法則を調査して、データ混合比の最適なレシピを特定します。
ヘファエストスフォージの継続的な事前トレーニングにより、ヘファーストスは3つのエージェントベンチマークで小規模から中規模のオープンソースLLMSを上回り、コマーシャルLLMSを上回り、トレーニング前のコーパスの有効性を実証しました。
新しいタスクまたは環境。
要約(オリジナル)
Due to the scarcity of agent-oriented pre-training data, LLM-based autonomous agents typically rely on complex prompting or extensive fine-tuning, which often fails to introduce new capabilities while preserving strong generalizability. We introduce Hephaestus-Forge, the first large-scale pre-training corpus designed to enhance the fundamental capabilities of LLM agents in API function calling, intrinsic reasoning and planning, and adapting to environmental feedback. Hephaestus-Forge comprises 103B agent-specific data encompassing 76,537 APIs, including both tool documentation to introduce knowledge of API functions and function calling trajectories to strengthen intrinsic reasoning. To explore effective training protocols, we investigate scaling laws to identify the optimal recipe in data mixing ratios. By continual pre-training on Hephaestus-Forge, Hephaestus outperforms small- to medium-scale open-source LLMs and rivals commercial LLMs on three agent benchmarks, demonstrating the effectiveness of our pre-training corpus in enhancing fundamental agentic capabilities and generalization of LLMs to new tasks or environments.
arxiv情報
著者 | Yuchen Zhuang,Jingfeng Yang,Haoming Jiang,Xin Liu,Kewei Cheng,Sanket Lokegaonkar,Yifan Gao,Qing Ping,Tianyi Liu,Binxuan Huang,Zheng Li,Zhengyang Wang,Pei Chen,Ruijie Wang,Rongzhi Zhang,Nasser Zalmout,Priyanka Nigam,Bing Yin,Chao Zhang |
発行日 | 2025-02-10 15:54:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google