要約
大規模言語モデル(Large Language Model: LLM)に基づくマルチエージェントシステムは、特に協調的なコミュニケーションによって強化された場合に、様々なタスクにおいて顕著な性能を示す。しかしながら、現在の手法は、固定的なエージェント数と静的なコミュニケーション構造に依存していることが多く、タスクの複雑さの変化に適応する能力が制限されている。本論文では、適応的グラフ刈り込み(AGP)を提案する。これは、エージェントの量(ハード刈り込み)と通信トポロジー(ソフト刈り込み)を共同で最適化する、新しいタスク適応型マルチエージェントコラボレーションフレームワークである。具体的には、本手法は2段階の学習戦略を採用している。まず、異なるエージェント量に対してソフト・プルーニング・ネットワークを独立に学習し、特定のタスクにおけるエージェント量に応じた最適な完全グラフと位置マスクを決定する。次に、最大完全グラフ内でハード・プルーニングとソフト・プルーニングを共同で最適化し、タスクごとにエージェント数と通信トポロジーを動的に設定する。広範な実験により、本アプローチは以下のことが実証された: (1) 高性能、6つのベンチマークで最先端の結果を達成し、複数の主流LLMアーキテクチャで一貫して一般化する。84%$; (2) Task-adaptive, 特定のタスクに合わせて最適化された通信トポロジを動的に構築し、3つのタスクカテゴリ(一般的推論、数学的推論、コード生成)すべてにおいて極めて高い性能を実現。(3) Token-economical, 少ない学習ステップとトークン消費を同時に実現し、トークン消費を$90%+$減少。その性能は、6つのベンチマークの下で約10ステップの訓練を行った後、既存のベースラインを上回る。
要約(オリジナル)
Large Language Model (LLM) based multi-agent systems have shown remarkable performance in various tasks, especially when enhanced through collaborative communication. However, current methods often rely on a fixed number of agents and static communication structures, limiting their ability to adapt to varying task complexities. In this paper, we propose Adaptive Graph Pruning (AGP), a novel task-adaptive multi-agent collaboration framework that jointly optimizes agent quantity (hard-pruning) and communication topology (soft-pruning). Specifically, our method employs a two-stage training strategy: firstly, independently training soft-pruning networks for different agent quantities to determine optimal agent-quantity-specific complete graphs and positional masks across specific tasks; and then jointly optimizing hard-pruning and soft-pruning within a maximum complete graph to dynamically configure the number of agents and their communication topologies per task. Extensive experiments demonstrate that our approach is: (1) High-performing, achieving state-of-the-art results across six benchmarks and consistently generalizes across multiple mainstream LLM architectures, with a increase in performance of $2.58\%\sim 9.84\%$; (2) Task-adaptive, dynamically constructing optimized communication topologies tailored to specific tasks, with an extremely high performance in all three task categories (general reasoning, mathematical reasoning, and code generation); (3) Token-economical, having fewer training steps and token consumption at the same time, with a decrease in token consumption of $90\%+$; and (4) Training-efficient, achieving high performance with very few training steps compared with other methods. The performance will surpass the existing baselines after about ten steps of training under six benchmarks.
arxiv情報
著者 | Boyi Li,Zhonghan Zhao,Der-Horng Lee,Gaoang Wang |
発行日 | 2025-06-03 14:46:00+00:00 |
arxivサイト | arxiv_id(pdf) |