Learning to Use Tools via Cooperative and Interactive Agents

要約

ツール学習により、大規模言語モデル (LLM) がエージェントとして外部ツールを使用して機能を拡張できるようになります。
既存の方法では、単一の LLM ベースのエージェントを使用してツールを繰り返し選択して実行し、その結果を次のアクションの予測に組み込みます。
ただし、複雑なタスクに対処する場合、(1) 多様なアクションを実行する単一の LLM の固有の能力の制限、および (2) タスクが失敗したときに間違いを適応的に修正するのに苦労するため、依然として潜在的なパフォーマンス低下に悩まされています。
これらの問題を軽減するために、ツール学習のワークフローをグラウンディング、実行、および観察エージェントにモジュール化する、協調的で対話型のエージェント フレームワークである ConAgents を提案します。
また、反復キャリブレーション (IterCali) 手法も導入し、エージェントがツール環境からのフィードバックに基づいて自らを適応できるようにします。
3 つのデータセットに対して行われた実験により、ConAgent の優位性が実証されました (SOTA ベースラインより 6 ポイント改善など)。
さらに、フレームワークの効率と一貫性を高めるために、細かい粒度の分析を提供します。

要約(オリジナル)

Tool learning empowers large language models (LLMs) as agents to use external tools to extend their capability. Existing methods employ one single LLM-based agent to iteratively select and execute tools, thereafter incorporating the result into the next action prediction. However, they still suffer from potential performance degradation when addressing complex tasks due to: (1) the limitation of the inherent capability of a single LLM to perform diverse actions, and (2) the struggle to adaptively correct mistakes when the task fails. To mitigate these problems, we propose the ConAgents, a Cooperative and interactive Agents framework, which modularizes the workflow of tool learning into Grounding, Execution, and Observing agents. We also introduce an iterative calibration (IterCali) method, enabling the agents to adapt themselves based on the feedback from the tool environment. Experiments conducted on three datasets demonstrate the superiority of our ConAgents (e.g., 6 point improvement over the SOTA baseline). We further provide fine-granularity analysis for the efficiency and consistency of our framework.

arxiv情報

著者 Zhengliang Shi,Shen Gao,Xiuyi Chen,Lingyong Yan,Haibo Shi,Dawei Yin,Zhumin Chen,Pengjie Ren,Suzan Verberne,Zhaochun Ren
発行日 2024-03-05 15:08:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク