要約
この論文では、多様な動作 (またはモード) を生成できる単一のマルチモーダル制御ポリシーと、二足歩行のための緊急の固有の遷移操作を合成するための新しいフレームワークを提案します。
私たちの方法では、最初に大まかな参照モーションのデータセットからオートエンコーダーをトレーニングすることにより、各動作の効率的な潜在エンコーディングを学習します。
これらの潜在的なエンコーディングは、モードと遷移の適応サンプリングを通じてマルチモーダル ポリシーをトレーニングするためのコマンドとして使用され、さまざまな動作間で一貫したパフォーマンスを確保します。
歩行、跳躍、ブロックでのジャンプ、アイドル状態、およびモード間遷移のすべての可能な組み合わせなど、さまざまな異なる移動モードのシミュレーションでポリシーのパフォーマンスを検証します。
最後に、タスクベースのプランナーを統合して、トレーニングされたマルチモーダル ポリシーの開ループ モード プランを迅速に生成し、困難な地形での目標位置への到達などの高レベルのタスクを解決します。
離散的な移動モードを滑らかに組み合わせることで、複雑なパルクールのような動きが 3 分で生成されました。
幅 0.45 m のギャップ、高さ 0.2 m のプラトー、および高さ 0.4 m のブロックでトラックを横断します。これらはすべて、ミニ二足歩行プラットフォームの寸法と比較して重要です。
要約(オリジナル)
In this paper, we propose a novel framework for synthesizing a single multimodal control policy capable of generating diverse behaviors (or modes) and emergent inherent transition maneuvers for bipedal locomotion. In our method, we first learn efficient latent encodings for each behavior by training an autoencoder from a dataset of rough reference motions. These latent encodings are used as commands to train a multimodal policy through an adaptive sampling of modes and transitions to ensure consistent performance across different behaviors. We validate the policy performance in simulation for various distinct locomotion modes such as walking, leaping, jumping on a block, standing idle, and all possible combinations of inter-mode transitions. Finally, we integrate a task-based planner to rapidly generate open-loop mode plans for the trained multimodal policy to solve high-level tasks like reaching a goal position on a challenging terrain. Complex parkour-like motions by smoothly combining the discrete locomotion modes were generated in 3 min. to traverse tracks with a gap of width 0.45 m, a plateau of height 0.2 m, and a block of height 0.4 m, which are all significant compared to the dimensions of our mini-biped platform.
arxiv情報
著者 | Lokesh Krishna,Quan Nguyen |
発行日 | 2023-03-10 05:33:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google