LLM-as-BT-Planner: Leveraging LLMs for Behavior Tree Generation in Robot Task Planning

要約

ロボットアセンブリタスクは、長い地平線の性質と複雑な部分関係のために、オープンな挑戦のままです。
動作ツリー(BTS)は、モジュール性と柔軟性のためにロボットタスク計画でますます使用されていますが、手動でそれらを作成することは努力集約的です。
大規模な言語モデル(LLM)は最近、アクションシーケンスを生成するためのロボットタスク計画に適用されていますが、BTSを生成する能力は完全に調査されていません。
この目的のために、LLM-As-BT-Plannerを提案します。これは、ロボットアセンブリタスク計画におけるBT生成にLLMを活用する新しいフレームワークです。
BT形式でタスク計画を作成するためにLLMの自然言語処理と推論機能を利用するために、4つのコンテキスト学習方法が導入され、堅牢性と包括性を確保しながら手動の努力を削減します。
さらに、同じタスクで微調整された小型LLMのパフォーマンスを評価します。
シミュレートされた設定と実世界の両方の設定での実験は、私たちのフレームワークがLLMSのBTSを生成する能力を高め、コンテキスト内学習と監視された微調整を通じて成功率を向上させることを示しています。

要約(オリジナル)

Robotic assembly tasks remain an open challenge due to their long horizon nature and complex part relations. Behavior trees (BTs) are increasingly used in robot task planning for their modularity and flexibility, but creating them manually can be effort-intensive. Large language models (LLMs) have recently been applied to robotic task planning for generating action sequences, yet their ability to generate BTs has not been fully investigated. To this end, we propose LLM-as-BT-Planner, a novel framework that leverages LLMs for BT generation in robotic assembly task planning. Four in-context learning methods are introduced to utilize the natural language processing and inference capabilities of LLMs for producing task plans in BT format, reducing manual effort while ensuring robustness and comprehensibility. Additionally, we evaluate the performance of fine-tuned smaller LLMs on the same tasks. Experiments in both simulated and real-world settings demonstrate that our framework enhances LLMs’ ability to generate BTs, improving success rate through in-context learning and supervised fine-tuning.

arxiv情報

著者 Jicong Ao,Fan Wu,Yansong Wu,Abdalla Swikir,Sami Haddadin
発行日 2025-03-07 11:32:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク