要約
この研究では、大規模言語モデル (LLM) を、自然言語の指示に従って視覚的に認識される環境で複雑なタスクを完了することができる具体化されたエージェントのプランナーとして使用することに焦点を当てています。
既存の方法ではデータ コストが高く、サンプル効率が低いため、多くのタスクに対応でき、新しいタスクをすばやく学習できる汎用エージェントの開発が妨げられています。
この作業では、大規模な言語モデルの力を利用して、具現化されたエージェントの少数ショット計画を実行する新しい方法、LLM-Planner を提案します。
さらに、現在の環境に基づいた計画を生成および更新するための物理的な接地を使用して LLM を強化する、シンプルかつ効果的な方法を提案します。
ALFRED データセットの実験は、私たちの方法が非常に競争力のある少数ショットのパフォーマンスを達成できることを示しています:ペアのトレーニング データの 0.5% 未満を使用するにもかかわらず、LLM-Planner は、完全なトレーニング データを使用してトレーニングされた最近のベースラインで競争力のあるパフォーマンスを達成します。
既存の方法では、同じ数回のショット設定では、タスクをほとんど完了できません。
私たちの仕事は、多くのタスクをすばやく学習できる、用途が広く、サンプル効率の高い具体化されたエージェントを開発するための扉を開きます。
ウェブサイト: https://dki-lab.github.io/LLM-Planner
要約(オリジナル)
This study focuses on using large language models (LLMs) as a planner for embodied agents that can follow natural language instructions to complete complex tasks in a visually-perceived environment. The high data cost and poor sample efficiency of existing methods hinders the development of versatile agents that are capable of many tasks and can learn new tasks quickly. In this work, we propose a novel method, LLM-Planner, that harnesses the power of large language models to do few-shot planning for embodied agents. We further propose a simple but effective way to enhance LLMs with physical grounding to generate and update plans that are grounded in the current environment. Experiments on the ALFRED dataset show that our method can achieve very competitive few-shot performance: Despite using less than 0.5% of paired training data, LLM-Planner achieves competitive performance with recent baselines that are trained using the full training data. Existing methods can barely complete any task successfully under the same few-shot setting. Our work opens the door for developing versatile and sample-efficient embodied agents that can quickly learn many tasks. Website: https://dki-lab.github.io/LLM-Planner
arxiv情報
著者 | Chan Hee Song,Jiaman Wu,Clayton Washington,Brian M. Sadler,Wei-Lun Chao,Yu Su |
発行日 | 2023-03-19 20:52:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google