要約
ロボットの組み立て作業は、作業期間が長く、部品の関係が複雑であるため、未解決の課題です。
ビヘイビア ツリー (BT) は、そのモジュール性と柔軟性により、ロボットのタスク計画に使用されることが増えていますが、手動で設計するのは労力がかかる場合があります。
大規模言語モデル (LLM) は最近、アクション シーケンスを生成するロボット タスク計画に適用されていますが、BT を生成するその機能は十分に調査されていません。
この目的を達成するために、ロボット組立タスクの計画と実行において BT 生成に LLM を活用するための新しいフレームワークである、BT プランナーとしての LLM を提案します。
LLM の自然言語処理と推論機能を利用して BT 形式でタスク プランを作成する 4 つのインコンテキスト学習メソッドが導入され、手作業の労力を軽減し、堅牢性とわかりやすさを確保します。
また、同じタスクで微調整され、パラメータが少ない LLM のパフォーマンスも評価します。
シミュレートされた現実世界の設定での実験では、私たちのフレームワークが BT 生成における LLM のパフォーマンスを向上させ、コンテキスト内学習と教師付き微調整を通じて BT 生成の成功率を向上させることが示されています。
要約(オリジナル)
Robotic assembly tasks are open challenges due to the long task horizon and complex part relations. Behavior trees (BTs) are increasingly used in robot task planning for their modularity and flexibility, but manually designing them can be effort-intensive. Large language models (LLMs) have recently been applied in robotic task planning for generating action sequences, but their ability to generate BTs has not been fully investigated. To this end, We propose LLM as BT-planner, a novel framework to leverage LLMs for BT generation in robotic assembly task planning and execution. Four in-context learning methods are introduced to utilize the natural language processing and inference capabilities of LLMs to produce task plans in BT format, reducing manual effort and ensuring robustness and comprehensibility. We also evaluate the performance of fine-tuned, fewer-parameter LLMs on the same tasks. Experiments in simulated and real-world settings show that our framework enhances LLMs’ performance in BT generation, improving success rates in BT generation through in-context learning and supervised fine-tuning.
arxiv情報
著者 | Jicong Ao,Fan Wu,Yansong Wu,Abdalla Swikir,Sami Haddadin |
発行日 | 2024-09-16 16:28:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google