要約
大規模な言語モデル(LLM)により、規律のあるコラボレーションと相互作用を通じて、個々のエージェントの認知境界を拡張しますが、これらのシステムを構築するには、労働集約的なマニュアル設計が必要になることがよくあります。
エージェントワークフローの設計を自動化する方法が可用性にもかかわらず、彼らは通常、静的で複雑なワンサイズのすべてのシステムを識別しようとしますが、それはそれぞれの難易度とドメインに基づいて推論リソースを動的に割り当てることができません。
クエリ。
この課題に対処するために、私たちはモノリシックなエージェントシステムの追求から離れ、代わりにエージェントアーキテクチャの確率的かつ継続的な分布である\ textBF {Agent SuperNet}を最適化します。
スーパーネットからクエリ依存のエージェントシステムをサンプリングする自動化されたフレームワークであるMAASを紹介し、高品質のソリューションとカスタマイズされたリソース割り当て(\ textIT {e.g。}、LLMコール、ツールコール、トークンコスト)を提供します。
6つのベンチマークにわたる包括的な評価は、Maas \ TextBf {(i)}が既存の手作りまたは自動化されたマルチエージェントシステムの推論コストの$ 6 \ sim45 \%$のみを必要とすることを示しています。
\ sim11.82 \%$、および\ textbf {(iii)}は、優れたクロスダタセットとクロスバックボーンの伝達可能性を享受します。
要約(オリジナル)
Large Language Model (LLM)-empowered multi-agent systems extend the cognitive boundaries of individual agents through disciplined collaboration and interaction, while constructing these systems often requires labor-intensive manual designs. Despite the availability of methods to automate the design of agentic workflows, they typically seek to identify a static, complex, one-size-fits-all system, which, however, fails to dynamically allocate inference resources based on the difficulty and domain of each query. To address this challenge, we shift away from the pursuit of a monolithic agentic system, instead optimizing the \textbf{agentic supernet}, a probabilistic and continuous distribution of agentic architectures. We introduce MaAS, an automated framework that samples query-dependent agentic systems from the supernet, delivering high-quality solutions and tailored resource allocation (\textit{e.g.}, LLM calls, tool calls, token cost). Comprehensive evaluation across six benchmarks demonstrates that MaAS \textbf{(I)} requires only $6\sim45\%$ of the inference costs of existing handcrafted or automated multi-agent systems, \textbf{(II)} surpasses them by $0.54\%\sim11.82\%$, and \textbf{(III)} enjoys superior cross-dataset and cross-LLM-backbone transferability.
arxiv情報
著者 | Guibin Zhang,Luyang Niu,Junfeng Fang,Kun Wang,Lei Bai,Xiang Wang |
発行日 | 2025-02-06 16:12:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google