要約
近年の大規模言語モデル(LLM)の進歩は、様々な研究分野に革命を巻き起こしている。特に、LLMから得られる常識的な知識をロボットのタスクや動作計画に統合することで、説明のしやすさや下流のタスク効率といったパフォーマンスがかつてないほど向上することが実証されています。しかし、このような大規模なモデルに内包される膨大な知識の管理には課題があり、LLMベースの計画システムによって生成された計画は、幻覚や領域情報の欠落により、しばしば実行不可能なものとなっていました。このような課題を克服し、より高い計画実現性と計算効率を得るために、我々はDELTAと呼ばれる新しいLLM駆動タスク計画アプローチを提案する。環境トポロジーから実行可能な知識へのより良いグラウンディングを達成するために、DELTAはLLM内の環境表現としてシーングラフの力を活用し、正確な計画問題記述の高速生成を可能にする。より高い計画性能を得るために、我々はLLMを用いて、長期的なタスク目標を、自動タスクプランナーが解くべきサブ目標の自己回帰シーケンスに分解する。我々の貢献により、より効率的で完全な自動タスクプランニングパイプラインが可能となり、従来技術に比べ、高いプランニング成功率とプランニング時間の大幅な短縮を達成する。
要約(オリジナル)
Recent advancements in Large Language Models (LLMs) have sparked a revolution across various research fields. In particular, the integration of common-sense knowledge from LLMs into robot task and motion planning has been proven to be a game-changer, elevating performance in terms of explainability and downstream task efficiency to unprecedented heights. However, managing the vast knowledge encapsulated within these large models has posed challenges, often resulting in infeasible plans generated by LLM-based planning systems due to hallucinations or missing domain information. To overcome these challenges and obtain even greater planning feasibility and computational efficiency, we propose a novel LLM-driven task planning approach called DELTA. For achieving better grounding from environmental topology into actionable knowledge, DELTA leverages the power of scene graphs as environment representations within LLMs, enabling the fast generation of precise planning problem descriptions. For obtaining higher planning performance, we use LLMs to decompose the long-term task goals into an autoregressive sequence of sub-goals for an automated task planner to solve. Our contribution enables a more efficient and fully automatic task planning pipeline, achieving higher planning success rates and significantly shorter planning times compared to the state of the art.
arxiv情報
著者 | Yuchen Liu,Luigi Palmieri,Sebastian Koch,Ilche Georgievski,Marco Aiello |
発行日 | 2024-04-04 07:59:24+00:00 |
arxivサイト | arxiv_id(pdf) |