ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon Sequential Task Planning

要約

自然言語処理の分野における大規模言語モデル (LLM) で観察された実質的な成果を動機として、最近の研究では、ロボット工学における複雑で長期にわたる逐次タスク計画の課題に対する LLM の応用に関する調査が開始されました。
LLM は、タスクに依存しないプランナーとしての一般化可能性を高め、人間のインストラクターと計画システムの間の柔軟な対話を促進する可能性を提供するという点で有利です。
ただし、LLM によって生成されたタスク プランには、実現可能性や正確さが欠けていることがよくあります。
この課題に対処するために、反復的な自己洗練プロセスを通じて LLM ベースの計画を改善する新しいフレームワークである ISR-LLM を導入します。
このフレームワークは、前処理、計画、反復的な自己調整という 3 つの連続したステップを通じて動作します。
前処理中に、LLM トランスレーターを使用して、自然言語入力を計画ドメイン定義言語 (PDDL) 形式に変換します。
計画フェーズでは、LLM プランナーが初期計画を策定します。その後、検証ツールを使用して反復的な自己調整ステップでその計画が評価され、調整されます。
3 つの異なる計画ドメインにわたって ISR-LLM のパフォーマンスを調べます。
結果は、ISR-LLM が最先端の LLM ベースのプランナーと比較して、タスク達成において著しく高い成功率を達成できることを示しています。
さらに、自然言語命令を使用した作業の幅広い適用性と一般化性も維持されます。

要約(オリジナル)

Motivated by the substantial achievements observed in Large Language Models (LLMs) in the field of natural language processing, recent research has commenced investigations into the application of LLMs for complex, long-horizon sequential task planning challenges in robotics. LLMs are advantageous in offering the potential to enhance the generalizability as task-agnostic planners and facilitate flexible interaction between human instructors and planning systems. However, task plans generated by LLMs often lack feasibility and correctness. To address this challenge, we introduce ISR-LLM, a novel framework that improves LLM-based planning through an iterative self-refinement process. The framework operates through three sequential steps: preprocessing, planning, and iterative self-refinement. During preprocessing, an LLM translator is employed to convert natural language input into a Planning Domain Definition Language (PDDL) formulation. In the planning phase, an LLM planner formulates an initial plan, which is then assessed and refined in the iterative self-refinement step by using a validator. We examine the performance of ISR-LLM across three distinct planning domains. The results show that ISR-LLM is able to achieve markedly higher success rates in task accomplishments compared to state-of-the-art LLM-based planners. Moreover, it also preserves the broad applicability and generalizability of working with natural language instructions.

arxiv情報

著者 Zhehua Zhou,Jiayang Song,Kunpeng Yao,Zhan Shu,Lei Ma
発行日 2023-08-26 01:31:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク