MPO: Boosting LLM Agents with Meta Plan Optimization

要約

大規模な言語モデル(LLMS)の最近の進歩により、LLMベースのエージェントはインタラクティブな計画タスクに成功裏に取り組むことができました。
しかし、彼らの成功にもかかわらず、既存のアプローチはしばしば幻覚の計画に苦しみ、新しいエージェントごとに再訓練を必要とします。
これらの課題に対処するために、明示的なガイダンスを直接組み込むことでエージェント計画機能を強化するMETA計画最適化(MPO)フレームワークを提案します。
重大な人間の努力を必要とする複雑な知識に依存する以前の方法とは異なり、MPOはメタ計画を通じて高レベルの一般的なガイダンスを活用して、エージェントの計画を支援し、エージェントのタスク実行からのフィードバックに基づいてMETAプランの継続的な最適化を可能にします。
2つの代表的なタスクで実施された実験は、MPOが既存のベースラインを大幅に上回ることを示しています。
さらに、我々の分析は、MPOが以前の目に見えないシナリオでタスクの完了効率と一般化機能の両方を強化するプラグアンドプレイソリューションを提供することを示しています。

要約(オリジナル)

Recent advancements in large language models (LLMs) have enabled LLM-based agents to successfully tackle interactive planning tasks. However, despite their successes, existing approaches often suffer from planning hallucinations and require retraining for each new agent. To address these challenges, we propose the Meta Plan Optimization (MPO) framework, which enhances agent planning capabilities by directly incorporating explicit guidance. Unlike previous methods that rely on complex knowledge, which either require significant human effort or lack quality assurance, MPO leverages high-level general guidance through meta plans to assist agent planning and enables continuous optimization of the meta plans based on feedback from the agent’s task execution. Our experiments conducted on two representative tasks demonstrate that MPO significantly outperforms existing baselines. Moreover, our analysis indicates that MPO provides a plug-and-play solution that enhances both task completion efficiency and generalization capabilities in previous unseen scenarios.

arxiv情報

著者 Weimin Xiong,Yifan Song,Qingxiu Dong,Bingchan Zhao,Feifan Song,Xun Wang,Sujian Li
発行日 2025-03-04 14:54:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク