要約
大規模な言語モデル(LLMS)を閉ループロボットタスク計画に統合することは、具体化された人工知能内でますます人気が高まっています。
以前の取り組みは、主にLLMSの強力な推論能力を活用してタスク計画のパフォーマンスを強化することに焦点を当てており、LLMSへの繰り返しクエリのためにタスク計画の効率と実行可能性を見落とすことがよくありました。
このペーパーでは、LLMSとタスク計画システム間の相乗効果に対処し、計画の有効性を高めながら冗長性を最小限に抑えることを目指しています。
具体的には、Prog-PromptとTree-Plannerの高レベルの概念に基づいて、投票Tree-Plannerを提案します。
このサンプリング戦略は、投票を利用して、意思決定プロセス中に計画のトラバーサルを導きます。
私たちのアプローチは、単純な観察によって動機付けられています。意思決定中にエージェントに重みを割り当てることで、実行前に重要なパスの評価が可能になります。
この単純な投票ツリー構造により、この方法は成功率をさらに改善し、LLMSのクエリの数を減らします。
実験結果は、投票ツリープランナーがより大きな安定性を示し、以前のベースライン方法と比較して目に見えないデータセットでの平均成功率と目標条件のリコールを示していることを強調しています。
これらの調査結果は、LLMベースの計画システムの計画の正確性、信頼性、効率性を高めるための投票ツリープランナーの可能性を強調しています。
要約(オリジナル)
Integrating large language models (LLMs) into closed-loop robotic task planning has become increasingly popular within embodied artificial intelligence. Previous efforts mainly focused on leveraging the strong reasoning abilities of LLMs to enhance task planning performance while often overlooking task planning efficiency and executability due to repetitive queries to LLMs. This paper addresses the synergy between LLMs and task planning systems, aiming to minimize redundancy while enhancing planning effectiveness. Specifically, building upon Prog-Prompt and the high-level concept of Tree-Planner, we propose Vote-Tree-Planner. This sampling strategy utilizes votes to guide plan traversal during the decision-making process. Our approach is motivated by a straightforward observation: assigning weights to agents during decision-making enables the evaluation of critical paths before execution. With this simple vote-tree construction, our method further improves the success rate and reduces the number of queries to LLMs. The experimental results highlight that our Vote-Tree-Planner demonstrates greater stability and shows a higher average success rate and goal condition recall on the unseen dataset compared with previous baseline methods. These findings underscore the potential of the Vote-Tree-Planner to enhance planning accuracy, reliability, and efficiency in LLM-based planning systems.
arxiv情報
著者 | Chaoyuan Zhang,Zhaowei Li,Wentao Yuan |
発行日 | 2025-02-13 20:08:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google