要約
データ駆動型 AI テクノロジーの分野では、ロボット タスク計画におけるオープンソースの大規模言語モデル (LLM) の適用は重要なマイルストーンとなります。
オープンソース LLM に基づく最近のロボット タスク計画手法は、通常、膨大なタスク計画データセットを活用してモデルの計画能力を強化します。
これらの方法は有望ですが、より多くのコンテキストを理解し、より長いアクション シーケンスを生成する必要がある、長期にわたる複雑なタスクに苦労しています。
この論文では、MLDT (マルチレベル分解タスク計画手法) を提案することで、この制限に対処します。
この方法では、タスクを目標レベル、タスク レベル、アクション レベルで革新的に分解し、長期にわたる複雑なタスクの課題を軽減します。
オープンソース LLM の計画能力を強化するために、高品質の学習データを作成し、生成されたコーパスに対して命令チューニングを行う目的依存型コーパス生成手法を導入します。
既存のデータセットの複雑さは十分に高いわけではないため、より困難なデータセットである LongTasks を構築し、複雑で長期にわたるタスクの計画能力を具体的に評価します。
VirtualHome の 4 つのデータセットでさまざまな LLM を使用してメソッドを評価します。
私たちの結果は、ロボット タスク プランニングにおけるパフォーマンスの大幅な向上を実証し、オープンソース LLM に基づく既存の手法の制限を克服する MLDT の有効性と、複雑な現実世界のシナリオにおける実用性を示しています。
要約(オリジナル)
In the realm of data-driven AI technology, the application of open-source large language models (LLMs) in robotic task planning represents a significant milestone. Recent robotic task planning methods based on open-source LLMs typically leverage vast task planning datasets to enhance models’ planning abilities. While these methods show promise, they struggle with complex long-horizon tasks, which require comprehending more context and generating longer action sequences. This paper addresses this limitation by proposing MLDT, theMulti-Level Decomposition Task planning method. This method innovatively decomposes tasks at the goal-level, task-level, and action-level to mitigate the challenge of complex long-horizon tasks. In order to enhance open-source LLMs’ planning abilities, we introduce a goal-sensitive corpus generation method to create high-quality training data and conduct instruction tuning on the generated corpus. Since the complexity of the existing datasets is not high enough, we construct a more challenging dataset, LongTasks, to specifically evaluate planning ability on complex long-horizon tasks. We evaluate our method using various LLMs on four datasets in VirtualHome. Our results demonstrate a significant performance enhancement in robotic task planning, showcasing MLDT’s effectiveness in overcoming the limitations of existing methods based on open-source LLMs as well as its practicality in complex, real-world scenarios.
arxiv情報
著者 | Yike Wu,Jiatao Zhang,Nan Hu,LanLing Tang,Guilin Qi,Jun Shao,Jie Ren,Wei Song |
発行日 | 2024-04-02 03:25:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google