Auto-SLURP: A Benchmark Dataset for Evaluating Multi-Agent Frameworks in Smart Personal Assistant

要約

近年、大規模な言語モデル(LLMS)を搭載したマルチエージェントフレームワークは急速に進歩しています。
この進歩にもかかわらず、パフォーマンスを評価するために特別に調整されたベンチマークデータセットがまだ顕著に欠けています。
このギャップを埋めるために、インテリジェントパーソナルアシスタントのコンテキストでLLMベースのマルチエージェントフレームワークを評価することを目的としたベンチマークデータセットであるAuto-Slurpを導入します。
Auto-Slurpは、データを再び統合し、シミュレートされたサーバーと外部サービスを統合することにより、最初は自然言語理解タスクのために開発された元のSlurpデータセットを拡張します。
この強化により、言語の理解、タスクの実行、および応答生成をカバーする包括的なエンドツーエンド評価パイプラインが可能になります。
私たちの実験は、Auto-Slurpが現在の最先端のフレームワークに大きな課題をもたらすことを示しており、本当に信頼性が高くてインテリジェントなマルチエージェントパーソナルアシスタントが進行中の仕事であることを強調しています。
データセットと関連コードは、https://github.com/lorashen/auto-slurp/で入手できます。

要約(オリジナル)

In recent years, multi-agent frameworks powered by large language models (LLMs) have advanced rapidly. Despite this progress, there is still a notable absence of benchmark datasets specifically tailored to evaluate their performance. To bridge this gap, we introduce Auto-SLURP, a benchmark dataset aimed at evaluating LLM-based multi-agent frameworks in the context of intelligent personal assistants. Auto-SLURP extends the original SLURP dataset — initially developed for natural language understanding tasks — by relabeling the data and integrating simulated servers and external services. This enhancement enables a comprehensive end-to-end evaluation pipeline, covering language understanding, task execution, and response generation. Our experiments demonstrate that Auto-SLURP presents a significant challenge for current state-of-the-art frameworks, highlighting that truly reliable and intelligent multi-agent personal assistants remain a work in progress. The dataset and related code are available at https://github.com/lorashen/Auto-SLURP/.

arxiv情報

著者 Lei Shen,Xiaoyu Shen
発行日 2025-04-25 14:17:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク