AUTOACT: Automatic Agent Learning from Scratch via Self-Planning

要約

言語エージェントは、さまざまな複雑なタスクでかなりのパフォーマンスを達成しました。
この分野での絶え間ない探求にも関わらず、既存の言語エージェント システムは依然として、コストが高く再現不可能なデータ依存と格闘しており、複数の機能に対して単一のモデルを強制するという課題に直面しています。
この目的を達成するために、クローズドソース モデル (GPT-4 など) からの大規模な注釈付きデータや合成軌跡に依存しない自動エージェント学習フレームワークである AutoAct を導入します。
AutoAct は、ツール ライブラリで限られたデータを使用して、人間や強力なクローズド ソース モデルの支援を必要とせずに、まず計画軌道を自動的に合成します。
次に、AutoAct は分業戦略を活用して、ターゲット タスクの情報と合成された軌跡に基づいて自動的に区別し、タスクを完了するためのサブエージェント グループを生成します。
さまざまな LLM を使用して包括的な実験を実施し、AutoAct がさまざまな強力なベースラインと比較して優れたパフォーマンスまたは並列パフォーマンスを生み出すことを実証しました。
Llama-2-13b モデルを使用すると、AutoAct が GPT-3.5-Turbo エージェントと同等のパフォーマンスを達成できることにも気づきました。
コードは https://github.com/zjunlp/AutoAct で入手できます。

要約(オリジナル)

Language agents have achieved considerable performance on various complex tasks. Despite the incessant exploration in this field, existing language agent systems still struggle with costly, non-reproducible data reliance and face the challenge of compelling a single model for multiple functions. To this end, we introduce AutoAct, an automatic agent learning framework that does not rely on large-scale annotated data and synthetic trajectories from closed-source models (e.g., GPT-4). Given limited data with a tool library, AutoAct first automatically synthesizes planning trajectories without any assistance from humans or strong closed-source models. Then, AutoAct leverages a division-of-labor strategy to automatically differentiate based on the target task information and synthesized trajectories, producing a sub-agent group to complete the task. We conduct comprehensive experiments with different LLMs, which demonstrates that AutoAct yields better or parallel performance compared to various strong baselines. We even notice that AutoAct, when using the Llama-2-13b model, can achieve performance comparable to that of the GPT-3.5-Turbo agent. Code will be available at https://github.com/zjunlp/AutoAct.

arxiv情報

著者 Shuofei Qiao,Ningyu Zhang,Runnan Fang,Yujie Luo,Wangchunshu Zhou,Yuchen Eleanor Jiang,Chengfei Lv,Huajun Chen
発行日 2024-01-10 16:57:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG, cs.MA パーマリンク