要約
大規模言語モデル (LLM) に基づく AI エージェントがさまざまな分野で実用化される可能性を示しているため、AI エージェントを迅速に導入する方法と、AI エージェントのアプリケーション シナリオを便利に拡張する方法が課題となっています。
これまでの研究は主に、AI エージェントのすべての推論機能を単一の LLM 内に実装することに焦点を当てていましたが、これによりモデルがより複雑になることが多く、AI エージェントの機能の拡張性も低下します。
この論文では、サービス コンピューティングからインスピレーションを得たオープン アーキテクチャを使用した CACA エージェント (能力コラボレーション ベースの AI エージェント) を提案します。
CACA Agent は、AI エージェントを実装するための一連の協調機能を統合し、単一の LLM への依存を減らすだけでなく、計画能力と AI エージェントが利用できるツールの両方の拡張性を強化します。
提案したシステムを利用して、CACA Agent の動作とアプリケーション シナリオの拡張を説明するデモを示します。
要約(オリジナル)
As AI Agents based on Large Language Models (LLMs) have shown potential in practical applications across various fields, how to quickly deploy an AI agent and how to conveniently expand the application scenario of AI agents has become a challenge. Previous studies mainly focused on implementing all the reasoning capabilities of AI agents within a single LLM, which often makes the model more complex and also reduces the extensibility of AI agent functionality. In this paper, we propose CACA Agent (Capability Collaboration based AI Agent), using an open architecture inspired by service computing. CACA Agent integrates a set of collaborative capabilities to implement AI Agents, not only reducing the dependence on a single LLM, but also enhancing the extensibility of both the planning abilities and the tools available to AI agents. Utilizing the proposed system, we present a demo to illustrate the operation and the application scenario extension of CACA Agent.
arxiv情報
著者 | Peng Xu,Haoran Wang,Chuang Wang,Xu Liu |
発行日 | 2024-03-22 11:42:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google