要約
マルチエージェント システムは、さまざまなタスクやアプリケーションにわたって大規模言語モデル (LLM) のパフォーマンスを大幅に向上させることが示されていますが、スケーリング エージェント間の密な相互作用により、効率と多様性が妨げられる可能性があります。
これらの課題に対処するために、私たちはエージェントの疎混合 (SMoE) からインスピレーションを得て、マルチエージェント LLM の効率と多様性を向上させるためのエージェントの疎混合 (SMoA) フレームワークを提案します。
完全に接続された構造とは異なり、SMoA は新しい応答選択メカニズムと早期停止メカニズムを導入して、個々の LLM エージェント間の情報フローを分散し、パフォーマンスと効率のバランスをとります。
さらに、専門家間のワークロードバランスを図るための SMoE フレームワークの専門家多様性原則に触発され、各 LLM エージェントに明確な役割の説明を割り当て、多様で多様な思考を促進します。
推論、調整、公平性のベンチマークに関する広範な実験により、SMoA が従来のエージェント混合アプローチに匹敵するパフォーマンスを、大幅に低い計算コストで達成できることが実証されました。
さらなる分析により、SMoA はより安定しており、拡張能力が高く、ハイパーパラメーターの最適化を通じて大きな可能性を提供することが明らかになりました。
コードとデータは https://github.com/David-Li0406/SMoA で入手できます。
要約(オリジナル)
While multi-agent systems have been shown to significantly enhance the performance of Large Language Models (LLMs) across various tasks and applications, the dense interaction between scaling agents potentially hampers their efficiency and diversity. To address these challenges, we draw inspiration from the sparse mixture-of-agents (SMoE) and propose a sparse mixture-of-agents (SMoA) framework to improve the efficiency and diversity of multi-agent LLMs. Unlike completely connected structures, SMoA introduces novel Response Selection and Early Stopping mechanisms to sparsify information flows among individual LLM agents, striking a balance between performance and efficiency. Additionally, inspired by the expert diversity principle in SMoE frameworks for workload balance between experts, we assign distinct role descriptions to each LLM agent, fostering diverse and divergent thinking. Extensive experiments on reasoning, alignment, and fairness benchmarks demonstrate that SMoA achieves performance comparable to traditional mixture-of-agents approaches but with significantly lower computational costs. Further analysis reveals that SMoA is more stable, has a greater capacity to scale, and offers considerable potential through hyper-parameter optimization. Code and data will be available at: https://github.com/David-Li0406/SMoA.
arxiv情報
著者 | Dawei Li,Zhen Tan,Peijia Qian,Yifan Li,Kumar Satvik Chaudhary,Lijie Hu,Jiayi Shen |
発行日 | 2024-11-05 17:33:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google