要約
生成 AI の進歩により、自律エージェントが自然言語コマンドを介して日常のタスクを管理できる可能性があります。
ただし、現在のエージェントは主に単純化された合成環境で作成およびテストされているため、現実世界のシナリオとの乖離が生じています。
この論文では、非常に現実的で再現可能な言語ガイド型エージェントの環境を構築します。
具体的には、Web 上でタスクを実行するエージェントに焦点を当て、電子商取引、ソーシャル フォーラムでのディスカッション、共同ソフトウェア開発、コンテンツ管理という 4 つの共通ドメインから完全に機能する Web サイトを備えた環境を構築します。
私たちの環境は、人間らしいタスク解決を促すツール (地図など) や外部知識ベース (ユーザー マニュアルなど) で充実しています。
私たちの環境に基づいて、タスク完了の機能的正確性の評価に焦点を当てた一連のベンチマーク タスクをリリースします。
私たちのベンチマークのタスクは多様で長期にわたるもので、人間がインターネット上で日常的に実行するタスクをエミュレートするように設計されています。
私たちは、行動する前に推論するなどの最新の技術を統合して、いくつかのベースライン エージェントを実験します。
結果は、複雑なタスクを解決することが困難であることを示しています。当社の最高の GPT-4 ベースのエージェントは、エンドツーエンドのタスク成功率 14.41% しか達成しておらず、人間のパフォーマンスの 78.24% よりも大幅に低いです。
これらの結果は、堅牢なエージェントのさらなる開発の必要性、現在の最先端の大規模言語モデルがこれらの現実のタスクにおいて完璧なパフォーマンスにはほど遠いこと、および WebArena を使用してそのような進歩を測定できることを強調しています。
要約(オリジナル)
With advances in generative AI, there is now potential for autonomous agents to manage daily tasks via natural language commands. However, current agents are primarily created and tested in simplified synthetic environments, leading to a disconnect with real-world scenarios. In this paper, we build an environment for language-guided agents that is highly realistic and reproducible. Specifically, we focus on agents that perform tasks on the web, and create an environment with fully functional websites from four common domains: e-commerce, social forum discussions, collaborative software development, and content management. Our environment is enriched with tools (e.g., a map) and external knowledge bases (e.g., user manuals) to encourage human-like task-solving. Building upon our environment, we release a set of benchmark tasks focusing on evaluating the functional correctness of task completions. The tasks in our benchmark are diverse, long-horizon, and designed to emulate tasks that humans routinely perform on the internet. We experiment with several baseline agents, integrating recent techniques such as reasoning before acting. The results demonstrate that solving complex tasks is challenging: our best GPT-4-based agent only achieves an end-to-end task success rate of 14.41%, significantly lower than the human performance of 78.24%. These results highlight the need for further development of robust agents, that current state-of-the-art large language models are far from perfect performance in these real-life tasks, and that WebArena can be used to measure such progress.
arxiv情報
著者 | Shuyan Zhou,Frank F. Xu,Hao Zhu,Xuhui Zhou,Robert Lo,Abishek Sridhar,Xianyi Cheng,Tianyue Ou,Yonatan Bisk,Daniel Fried,Uri Alon,Graham Neubig |
発行日 | 2024-04-16 15:13:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google