要約
足のロボットは、過去数年間で非常にダイナミックな操作を行うことができるようになりました。
ただし、踏み台などの高度に制約された環境でのアジャイルな移動は依然として課題です。
この論文では、踏み石のアジャイル運動のための効率的な制御ポリシーを設計するためのモデルベースの制御、検索、および学習の組み合わせを提案します。
私たちのフレームワークでは、非線形モデル予測制御(NMPC)を使用して、特定の連絡先計画の全身運動を生成します。
最適な連絡先計画を効率的に検索するために、モンテカルロツリー検索(MCTS)を使用することを提案します。
MCTとNMPCの組み合わせは、特定の環境(数秒)の実行可能な計画を迅速に見つけることができますが、リアクティブポリシーとして使用するのはまだ適していません。
したがって、特定のシーンに対して最適な目標条件付けされたポリシーのためのデータセットを生成し、監視された学習を通じてそれを学びます。
特に、データセットのマルチモダリティを処理する際に拡散モデルの力を活用します。
提案されたフレームワークは、4倍のロボットSOLO12が、非常に制約された環境でさまざまな目標に正常にジャンプするシナリオでテストします。
要約(オリジナル)
Legged robots have become capable of performing highly dynamic maneuvers in the past few years. However, agile locomotion in highly constrained environments such as stepping stones is still a challenge. In this paper, we propose a combination of model-based control, search, and learning to design efficient control policies for agile locomotion on stepping stones. In our framework, we use nonlinear model predictive control (NMPC) to generate whole-body motions for a given contact plan. To efficiently search for an optimal contact plan, we propose to use Monte Carlo tree search (MCTS). While the combination of MCTS and NMPC can quickly find a feasible plan for a given environment (a few seconds), it is not yet suitable to be used as a reactive policy. Hence, we generate a dataset for optimal goal-conditioned policy for a given scene and learn it through supervised learning. In particular, we leverage the power of diffusion models in handling multi-modality in the dataset. We test our proposed framework on a scenario where our quadruped robot Solo12 successfully jumps to different goals in a highly constrained environment.
arxiv情報
著者 | Victor Dhédin,Adithya Kumar Chinnakkonda Ravi,Armand Jordana,Huaijiang Zhu,Avadesh Meduri,Ludovic Righetti,Bernhard Schölkopf,Majid Khadiv |
発行日 | 2025-05-26 09:09:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google