Bi-Level Motion Imitation for Humanoid Robots

要約

人間のモーションキャプチャ(MoCap)データからの模倣学習は、ヒューマノイドロボットの訓練に有望な方法を提供します。しかし、関節の自由度や力の限界などの形態の違いにより、人間の行動を忠実に再現することは、ヒューマノイドロボットでは実現不可能な場合があります。その結果、物理的に実現不可能なMoCapデータを訓練データセットに組み込むことは、ロボットポリシーの性能に悪影響を及ぼす可能性があります。この問題に対処するため、我々は、ロボット政策とターゲットMoCapデータの両方を交互に最適化する、2レベルの最適化に基づく模倣学習フレームワークを提案する。具体的には、まず新しい自己無撞着自動エンコーダを用いた潜在的ダイナミクスモデルを開発し、データセット中の望ましい運動パターンを捉えながら、スパースで構造化された運動表現を学習する。このモデルは、データセット中の所望のモーションパターンを捉えながら、スパースで構造化されたモーション表現を学習する。次に、このダイナミクスモデルは、参照モーションを生成するために利用され、潜在的表現は2レベルのモーション模倣プロセスを正則化する。ヒューマノイドロボットの現実的なモデルを用いて行ったシミュレーションにより、本手法が、参照モーションを物理的に整合するように修正することにより、ロボットポリシーを向上させることが実証された。

要約(オリジナル)

Imitation learning from human motion capture (MoCap) data provides a promising way to train humanoid robots. However, due to differences in morphology, such as varying degrees of joint freedom and force limits, exact replication of human behaviors may not be feasible for humanoid robots. Consequently, incorporating physically infeasible MoCap data in training datasets can adversely affect the performance of the robot policy. To address this issue, we propose a bi-level optimization-based imitation learning framework that alternates between optimizing both the robot policy and the target MoCap data. Specifically, we first develop a generative latent dynamics model using a novel self-consistent auto-encoder, which learns sparse and structured motion representations while capturing desired motion patterns in the dataset. The dynamics model is then utilized to generate reference motions while the latent representation regularizes the bi-level motion imitation process. Simulations conducted with a realistic model of a humanoid robot demonstrate that our method enhances the robot policy by modifying reference motions to be physically consistent.

arxiv情報

著者 Wenshuai Zhao,Yi Zhao,Joni Pajarinen,Michael Muehlebach
発行日 2024-10-02 19:21:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク