要約
大規模な言語モデル(LLMS)を開くことで、自然言語処理の分野が大幅に進歩し、さまざまなタスクにわたって印象的なパフォーマンスを紹介しています。LLMSの大幅な進歩にもかかわらず、それらの効果的な動作は、対話フローを正確にガイドするために人間の入力に大きく依存しています。
モデルは、細心の注意を払ってキュレーションされた高品質のデータセットで訓練されています。
また、環境フィードバックに基づいて適応性のある体重更新を通じて言語エージェント機能を増強するために設計された革新的なシステムである共同マルチエージェントチューニング(CMAT)フレームワークも紹介します。
このフレームワークは、複数のインテリジェントなエージェント間の共同学習とリアルタイムの適応を促進し、コンテキストの認識と長期的な記憶を高めます。
この研究では、マルチエージェントシステムを環境フィードバックメカニズムと統合する新しい通信エージェントフレームワークを提案し、協力的な行動を探るためのスケーラブルな方法を提供します。
特に、当社のTinyAgent-7Bモデルは、パラメーターが少ないにもかかわらず、GPT-3.5とPARでパフォーマンスを示し、LLMSの効率と有効性の大幅な改善を示しています。
要約(オリジナル)
Open large language models (LLMs) have significantly advanced the field of natural language processing, showcasing impressive performance across various tasks.Despite the significant advancements in LLMs, their effective operation still relies heavily on human input to accurately guide the dialogue flow, with agent tuning being a crucial optimization technique that involves human adjustments to the model for better response to such guidance.Addressing this dependency, our work introduces the TinyAgent model, trained on a meticulously curated high-quality dataset. We also present the Collaborative Multi-Agent Tuning (CMAT) framework, an innovative system designed to augment language agent capabilities through adaptive weight updates based on environmental feedback. This framework fosters collaborative learning and real-time adaptation among multiple intelligent agents, enhancing their context-awareness and long-term memory. In this research, we propose a new communication agent framework that integrates multi-agent systems with environmental feedback mechanisms, offering a scalable method to explore cooperative behaviors. Notably, our TinyAgent-7B model exhibits performance on par with GPT-3.5, despite having fewer parameters, signifying a substantial improvement in the efficiency and effectiveness of LLMs.
arxiv情報
著者 | Xuechen Liang,Yangfan He,Meiling Tao,Yinghui Xia,Jianhui Wang,Tianyu Shi,Jun Wang,JingSong Yang |
発行日 | 2025-04-15 15:28:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google