LightPlanner: Unleashing the Reasoning Capabilities of Lightweight Large Language Models in Task Planning

要約

近年、軽量の大手言語モデル(LLMS)は、計算リソースの要件が低く、エッジ展開に適しているため、ロボット工学分野で大きな注目を集めています。
ただし、タスク計画では、特に動的なセマンティックロジック推論を伴う複雑なタスクの場合、軽量LLMはパフォーマンスが低くなっています。
この制限に対処するために、新しいタスクプランナーであるLightPlannerを提案します。これにより、推論機能を完全に活用することにより、複雑なタスク計画における軽量LLMのパフォーマンスが向上します。
固定スキルテンプレートを使用する従来のプランナーとは異なり、LightPlannerはパラメーター化された関数呼び出しを介してロボットアクションを制御し、パラメーター値を動的に生成します。
このアプローチにより、きめの細かいスキル制御が可能になり、複雑なシナリオでタスク計画の成功率が向上します。
さらに、階層的な深い推論を紹介します。
各アクション決定ステップを生成する前に、LightPlannerは、アクション実行(フィードバック検証)、セマンティック解析(目標の一貫性検証)、およびパラメーター生成(パラメーターの妥当性検証)の3つのレベルを徹底的に考慮します。
これにより、その後のアクションコントロールの正確性が保証されます。
さらに、メモリモジュールを組み込んで歴史的な行動を保存し、それによりコンテキストの長さを削減し、長期的なタスクの計画効率を高めます。
LightPlan-40KデータセットでLightPlanner-1.5Bモデルをトレーニングします。これは、2〜13のアクションステップを持つタスク全体で40,000のアクションコントロールを含むものです。
実験は、パラメーターの数が最も少ないにもかかわらず、モデルが最高のタスク成功率を達成することを示しています。
空間セマンティック推論を含むタスクでは、成功率はReactの成功率を14.9%超えています。
さらに、Edgeデバイスで操作するLightplannerの可能性を示しています。

要約(オリジナル)

In recent years, lightweight large language models (LLMs) have garnered significant attention in the robotics field due to their low computational resource requirements and suitability for edge deployment. However, in task planning — particularly for complex tasks that involve dynamic semantic logic reasoning — lightweight LLMs have underperformed. To address this limitation, we propose a novel task planner, LightPlanner, which enhances the performance of lightweight LLMs in complex task planning by fully leveraging their reasoning capabilities. Unlike conventional planners that use fixed skill templates, LightPlanner controls robot actions via parameterized function calls, dynamically generating parameter values. This approach allows for fine-grained skill control and improves task planning success rates in complex scenarios. Furthermore, we introduce hierarchical deep reasoning. Before generating each action decision step, LightPlanner thoroughly considers three levels: action execution (feedback verification), semantic parsing (goal consistency verification), and parameter generation (parameter validity verification). This ensures the correctness of subsequent action controls. Additionally, we incorporate a memory module to store historical actions, thereby reducing context length and enhancing planning efficiency for long-term tasks. We train the LightPlanner-1.5B model on our LightPlan-40k dataset, which comprises 40,000 action controls across tasks with 2 to 13 action steps. Experiments demonstrate that our model achieves the highest task success rate despite having the smallest number of parameters. In tasks involving spatial semantic reasoning, the success rate exceeds that of ReAct by 14.9 percent. Moreover, we demonstrate LightPlanner’s potential to operate on edge devices.

arxiv情報

著者 Weijie Zhou,Yi Peng,Manli Tao,Chaoyang Zhao,Honghui Dong,Ming Tang,Jinqiao Wang
発行日 2025-03-11 14:57:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク