CMAT: A Multi-Agent Collaboration Tuning Framework for Enhancing Small Language Models

要約

オープンな大規模言語モデル(LLM)は、自然言語処理の分野を大きく発展させ、様々なタスクにおいて目覚ましい性能を示している。LLMの著しい進歩にもかかわらず、その効果的な運用は、対話の流れを正確に導くために、依然として人間の入力に大きく依存しており、エージェントチューニングは、そのようなガイダンスへのより良い応答を得るためにモデルを人間が調整する重要な最適化技術である。また、環境フィードバックに基づく適応的な重みの更新によって言語エージェントの能力を増強するように設計された革新的なシステムである、協調的マルチエージェントチューニング(CMAT)フレームワークも紹介する。このフレームワークは、複数の知的エージェント間の協調学習とリアルタイム適応を促進し、文脈認識と長期記憶を強化する。本研究では、マルチエージェントシステムと環境フィードバックメカニズムを統合した新しいコミュニケーションエージェントフレームワークを提案し、協調行動を探求するスケーラブルな方法を提供する。特に、我々のTinyAgent-7Bモデルは、より少ないパラメータにもかかわらず、GPT-3.5と同等の性能を示し、LLMの効率と有効性が大幅に改善されたことを示す。

要約(オリジナル)

Open large language models (LLMs) have significantly advanced the field of natural language processing, showcasing impressive performance across various tasks.Despite the significant advancements in LLMs, their effective operation still relies heavily on human input to accurately guide the dialogue flow, with agent tuning being a crucial optimization technique that involves human adjustments to the model for better response to such guidance.Addressing this dependency, our work introduces the TinyAgent model, trained on a meticulously curated high-quality dataset. We also present the Collaborative Multi-Agent Tuning (CMAT) framework, an innovative system designed to augment language agent capabilities through adaptive weight updates based on environmental feedback. This framework fosters collaborative learning and real-time adaptation among multiple intelligent agents, enhancing their context-awareness and long-term memory. In this research, we propose a new communication agent framework that integrates multi-agent systems with environmental feedback mechanisms, offering a scalable method to explore cooperative behaviors. Notably, our TinyAgent-7B model exhibits performance on par with GPT-3.5, despite having fewer parameters, signifying a substantial improvement in the efficiency and effectiveness of LLMs.

arxiv情報

著者 Xuechen Liang,Meiling Tao,Yinghui Xia,Tianyu Shi,Jun Wang,JingSong Yang
発行日 2024-09-01 22:02:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク