LLM-BRAIn: AI-driven Fast Generation of Robot Behaviour Tree based on Large Language Model

要約

この論文では、オペレータのコマンドに基づいてロボットの動作生成を可能にする、LLM-BRAIn と呼ばれる自律ロボット制御における新しいアプローチを紹介します。
LLM-BRAIn は、テキスト記述からロボット動作ツリー (BT) を生成するために、Stanford Alpaca 7B モデルから微調整されたトランスフォーマーベースの大規模言語モデル (LLM) です。
text-davinchi-003 を使用した自己指導のスタイルで生成された、8,5k の命令に従うデモンストレーションで LLM-BRAIn をトレーニングします。
開発されたモデルは、ロボットのオンボードマイコンで実行できるほど十分な小ささを保ちながら、複雑なロボットの動作を正確に構築します。
このモデルは構造的かつ論理的に正しい BT を提供し、トレーニング セットで提示されなかった指示を適切に管理できます。
この実験では、LLM-BRAIn によって生成された BT と人間によって作成された BT との間に有意な主観的な違いは明らかにされませんでした (平均して、参加者が LLM-BRAIn によって生成された BT と人間が作成した BT を正しく区別できたのは 10 件中 4.53 件のみでした)。
彼らのパフォーマンスが偶然に近いことを示しています)。
提案されたアプローチは、モバイル ロボット工学、ドローン操作、ロボット マニピュレータ システム、インダストリー 4.0 に適用できる可能性があります。

要約(オリジナル)

This paper presents a novel approach in autonomous robot control, named LLM-BRAIn, that makes possible robot behavior generation, based on operator’s commands. LLM-BRAIn is a transformer-based Large Language Model (LLM) fine-tuned from Stanford Alpaca 7B model to generate robot behavior tree (BT) from the text description. We train the LLM-BRAIn on 8,5k instruction-following demonstrations, generated in the style of self-instruct using text-davinchi-003. The developed model accurately builds complex robot behavior while remaining small enough to be run on the robot’s onboard microcomputer. The model gives structural and logical correct BTs and can successfully manage instructions that were not presented in training set. The experiment did not reveal any significant subjective differences between BTs generated by LLM-BRAIn and those created by humans (on average, participants were able to correctly distinguish between LLM-BRAIn generated BTs and human-created BTs in only 4.53 out of 10 cases, indicating that their performance was close to random chance). The proposed approach potentially can be applied to mobile robotics, drone operation, robot manipulator systems and Industry 4.0.

arxiv情報

著者 Artem Lykov,Dzmitry Tsetserukou
発行日 2023-05-30 18:28:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク