Prompt a Robot to Walk with Large Language Models

要約

膨大なインターネット規模のデータで事前トレーニングされた大規模言語モデル (LLM) は、さまざまなドメインにわたって優れた機能を実証してきました。
最近、現実世界の設定で基礎モデルの力を活用することを目的として、ロボット工学に LLM を導入することへの関心が高まっています。
ただし、このアプローチは、特にこれらのモデルを物理世界に固定し、動的なロボットの動きを生成する際に、重大な課題に直面しています。
これらの問題に対処するために、物理環境から収集された数ショット プロンプトを使用する新しいパラダイムを導入し、LLM がタスク固有の微調整を行わずにロボット向けの低レベルの制御コマンドを自己回帰的に生成できるようにします。
さまざまなロボットと環境での実験により、私たちの方法がロボットに効果的に歩行を促すことができることが検証されました。
このようにして、LLM が高次元のロボット システムであっても、動的モーション制御のための低レベルのフィードバック コントローラーとしてどのように適切に機能できるかを説明します。
プロジェクトの Web サイトとソース コードは https://prompt2walk.github.io/ にあります。

要約(オリジナル)

Large language models (LLMs) pre-trained on vast internet-scale data have showcased remarkable capabilities across diverse domains. Recently, there has been escalating interest in deploying LLMs for robotics, aiming to harness the power of foundation models in real-world settings. However, this approach faces significant challenges, particularly in grounding these models in the physical world and in generating dynamic robot motions. To address these issues, we introduce a novel paradigm in which we use few-shot prompts collected from the physical environment, enabling the LLM to autoregressively generate low-level control commands for robots without task-specific fine-tuning. Experiments across various robots and environments validate that our method can effectively prompt a robot to walk. We thus illustrate how LLMs can proficiently function as low-level feedback controllers for dynamic motion control even in high-dimensional robotic systems. The project website and source code can be found at: https://prompt2walk.github.io/ .

arxiv情報

著者 Yen-Jen Wang,Bike Zhang,Jianyu Chen,Koushil Sreenath
発行日 2023-11-17 01:24:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY パーマリンク