要約
脚式ロボットは、ここ数年で非常にダイナミックな操作を実行できるようになりました。
しかし、飛び石などの非常に制限された環境での機敏な移動は依然として課題です。
この論文では、モデルベースの制御、検索、学習を組み合わせて、飛び石の上での機敏な移動のための効率的な制御ポリシーを設計することを提案します。
私たちのフレームワークでは、非線形モデル予測制御 (NMPC) を使用して、特定の接触計画に対する全身の動きを生成します。
最適な接触計画を効率的に探索するために、モンテカルロ木探索 (MCTS) を使用することを提案します。
MCTS と NMPC を組み合わせると、特定の環境で実行可能なプランを迅速に (数秒) 見つけることができますが、事後対応のポリシーとして使用するにはまだ適していません。
したがって、特定のシーンに最適な目標条件付きポリシーのデータセットを生成し、教師あり学習を通じて学習します。
特に、データセット内のマルチモダリティを処理する際に拡散モデルの力を活用します。
四足ロボット Solo12 が高度に制約された環境でさまざまな目標にジャンプするシナリオで、提案されたフレームワークをテストします。
要約(オリジナル)
Legged robots have become capable of performing highly dynamic maneuvers in the past few years. However, agile locomotion in highly constrained environments such as stepping stones is still a challenge. In this paper, we propose a combination of model-based control, search, and learning to design efficient control policies for agile locomotion on stepping stones. In our framework, we use nonlinear model predictive control (NMPC) to generate whole-body motions for a given contact plan. To efficiently search for an optimal contact plan, we propose to use Monte Carlo tree search (MCTS). While the combination of MCTS and NMPC can quickly find a feasible plan for a given environment (a few seconds), it is not yet suitable to be used as a reactive policy. Hence, we generate a dataset for optimal goal-conditioned policy for a given scene and learn it through supervised learning. In particular, we leverage the power of diffusion models in handling multi-modality in the dataset. We test our proposed framework on a scenario where our quadruped robot Solo12 successfully jumps to different goals in a highly constrained environment.
arxiv情報
著者 | Victor Dhédin,Adithya Kumar Chinnakkonda Ravi,Armand Jordana,Huaijiang Zhu,Avadesh Meduri,Ludovic Righetti,Bernhard Schölkopf,Majid Khadiv |
発行日 | 2024-10-14 12:29:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google