Learning to Walk by Steering: Perceptive Quadrupedal Locomotion in Dynamic Environments

要約

動的環境における知覚移動の問題に取り組みます。
この問題では、四足歩行ロボットは、環境の混乱や移動する障害物に対応して、堅牢で機敏な歩行動作を示さなければなりません。
PRELUDE という名前の階層的な学習フレームワークを提示します。これは、知覚移動の問題を、ナビゲーション コマンドを予測するための高レベルの意思決定と、ターゲット コマンドを実現するための低レベルの歩容生成に分解します。
このフレームワークでは、操縦可能なカートで収集された人間のデモンストレーションで模倣学習を使用して高レベルのナビゲーション コントローラーをトレーニングし、強化学習 (RL) を使用して低レベルの歩行コントローラーをトレーニングします。
したがって、私たちの方法は、人間の監視から複雑なナビゲーション動作を取得し、試行錯誤から多様な歩行を発見することができます。
シミュレーションとハードウェア実験で、私たちのアプローチの有効性を実証します。
ビデオとコードは、プロジェクト ページ https://ut-austin-rpl.github.io/PRELUDE にあります。

要約(オリジナル)

We tackle the problem of perceptive locomotion in dynamic environments. In this problem, a quadrupedal robot must exhibit robust and agile walking behaviors in response to environmental clutter and moving obstacles. We present a hierarchical learning framework, named PRELUDE, which decomposes the problem of perceptive locomotion into high-level decision-making to predict navigation commands and low-level gait generation to realize the target commands. In this framework, we train the high-level navigation controller with imitation learning on human demonstrations collected on a steerable cart and the low-level gait controller with reinforcement learning (RL). Therefore, our method can acquire complex navigation behaviors from human supervision and discover versatile gaits from trial and error. We demonstrate the effectiveness of our approach in simulation and with hardware experiments. Videos and code can be found at the project page: https://ut-austin-rpl.github.io/PRELUDE.

arxiv情報

著者 Mingyo Seo,Ryan Gupta,Yifeng Zhu,Alexy Skoutnev,Luis Sentis,Yuke Zhu
発行日 2023-02-19 06:06:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク