要約
パルクールは、ロボットが複雑な環境でさまざまな障害物を迅速に克服する必要がある、脚を使った移動の壮大な挑戦です。
既存の方法では、参照動物データや複雑な報酬を使用して、多様だが盲目的な移動スキル、または視覚ベースだが特殊なスキルのいずれかを生成できます。
ただし、自律パルクールでは、ロボットがさまざまなシナリオを認識して反応するために、視覚ベースかつ多様な一般化可能なスキルを学習する必要があります。
この研究では、参照モーション データなしで単純な報酬を使用して、多様なパルクール スキルの単一のエンドツーエンドのビジョンベースのパルクール ポリシーを学習するシステムを提案します。
私たちは、高い障害物を乗り越える、大きな隙間を飛び越える、低い障壁の下を這う、細いスリットをすり抜ける、走るなどのパルクール スキルを生成するための直接コロケーションにヒントを得た強化学習手法を開発しました。
これらのスキルを単一のビジョンベースのパルクール ポリシーに抽出し、自己中心的な深度カメラを使用して四足歩行ロボットに転送します。
私たちは、私たちのシステムが 2 つの異なる低コスト ロボットに、困難な現実世界の環境を横断するために適切なパルクール スキルを自律的に選択して実行できることを実証します。
要約(オリジナル)
Parkour is a grand challenge for legged locomotion that requires robots to overcome various obstacles rapidly in complex environments. Existing methods can generate either diverse but blind locomotion skills or vision-based but specialized skills by using reference animal data or complex rewards. However, autonomous parkour requires robots to learn generalizable skills that are both vision-based and diverse to perceive and react to various scenarios. In this work, we propose a system for learning a single end-to-end vision-based parkour policy of diverse parkour skills using a simple reward without any reference motion data. We develop a reinforcement learning method inspired by direct collocation to generate parkour skills, including climbing over high obstacles, leaping over large gaps, crawling beneath low barriers, squeezing through thin slits, and running. We distill these skills into a single vision-based parkour policy and transfer it to a quadrupedal robot using its egocentric depth camera. We demonstrate that our system can empower two different low-cost robots to autonomously select and execute appropriate parkour skills to traverse challenging real-world environments.
arxiv情報
著者 | Ziwen Zhuang,Zipeng Fu,Jianren Wang,Christopher Atkeson,Soeren Schwertfeger,Chelsea Finn,Hang Zhao |
発行日 | 2023-09-12 03:01:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google