要約
大規模言語モデル (LLM) から常識的な知識を抽出すると、インテリジェント ロボットを設計するための道が開かれます。
計画に LLM を利用する既存のアプローチでは、アクションが失敗したときに回復できず、多くの場合、エラーの根本的な原因を解決せずに、失敗したアクションを再試行することになります。
計画中の前提条件エラーを解決するための修正措置を提案する新しいアプローチ (CAPE) を提案します。
CAPE は、アクションの前提条件からの少数ショット推論を活用することで、生成された計画の品質を向上させます。
私たちのアプローチにより、具体化されたエージェントは、セマンティックな正確性を確保し、再プロンプトを最小限に抑えながら、ベースラインメソッドよりも多くのタスクを実行できるようになります。
VirtualHome では、CAPE は実行可能な計画を生成すると同時に、人間による注釈が付けられた計画の正確さの指標が SayCan と比較して 28.89% から 49.63% に向上しました。
私たちの改善点は、一連のスキル (言語で指定) と関連する前提条件で初期化された Boston Dynamics Spot ロボットに移行され、CAPE は実行されたタスク プランの正確さの指標を SayCan と比較して 76.49% 向上させました。
私たちのアプローチにより、ロボットは自然言語コマンドに従い、ベースラインのアプローチではほとんど解決できず、非効率的に対処できない障害から確実に回復することができます。
要約(オリジナル)
Extracting commonsense knowledge from a large language model (LLM) offers a path to designing intelligent robots. Existing approaches that leverage LLMs for planning are unable to recover when an action fails and often resort to retrying failed actions, without resolving the error’s underlying cause. We propose a novel approach (CAPE) that attempts to propose corrective actions to resolve precondition errors during planning. CAPE improves the quality of generated plans by leveraging few-shot reasoning from action preconditions. Our approach enables embodied agents to execute more tasks than baseline methods while ensuring semantic correctness and minimizing re-prompting. In VirtualHome, CAPE generates executable plans while improving a human-annotated plan correctness metric from 28.89% to 49.63% over SayCan. Our improvements transfer to a Boston Dynamics Spot robot initialized with a set of skills (specified in language) and associated preconditions, where CAPE improves the correctness metric of the executed task plans by 76.49% compared to SayCan. Our approach enables the robot to follow natural language commands and robustly recover from failures, which baseline approaches largely cannot resolve or address inefficiently.
arxiv情報
著者 | Shreyas Sundara Raman,Vanya Cohen,David Paulius,Ifrah Idrees,Eric Rosen,Ray Mooney,Stefanie Tellex |
発行日 | 2023-10-23 03:56:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google