ExBody2: Advanced Expressive Humanoid Whole-Body Control

要約

この論文により、現実世界の人型ロボットが人間と同じように表現力豊かな動作を実行しながら安定性を維持できるようになります。
私たちは、任意の参照モーション入力を受け取り、そのモーションを模倣するようにヒューマノイドを制御できる汎用全身追跡フレームワークである ExBody2 を提案します。
モデルは強化学習を使用したシミュレーションでトレーニングされた後、現実世界に転送されます。
キーポイントの追跡と速度制御を切り離し、特権教師ポリシーを効果的に活用して、対象となる生徒のポリシーに正確な模倣スキルを浸透させます。これにより、走る、しゃがむ、踊る、その他の難しい動作などの動的な動きを忠実に再現することが可能になります。
この論文では、重要な設計要素の包括的な定性的および定量的分析を示します。
私たちは 2 つのヒューマノイド プラットフォームで実験を実施し、最先端技術に対する私たちのアプローチの優位性を実証し、ヒューマノイド ロボットの全身制御の極限を追求するための実践的なガイドラインを提供します。

要約(オリジナル)

This paper enables real-world humanoid robots to maintain stability while performing expressive motions like humans do. We propose ExBody2, a generalized whole-body tracking framework that can take any reference motion inputs and control the humanoid to mimic the motion. The model is trained in simulation with Reinforcement Learning and then transferred to the real world. It decouples keypoint tracking with velocity control, and effectively leverages a privileged teacher policy to distill precise mimic skills into the target student policy, which enables high-fidelity replication of dynamic movements such as running, crouching, dancing, and other challenging motions. We present a comprehensive qualitative and quantitative analysis of crucial design factors in the paper. We conduct our experiments on two humanoid platforms and demonstrate the superiority of our approach against state-of-the-arts, providing practical guidelines to pursue the extreme of whole-body control for humanoid robots.

arxiv情報

著者 Mazeyu Ji,Xuanbin Peng,Fangchen Liu,Jialong Li,Ge Yang,Xuxin Cheng,Xiaolong Wang
発行日 2024-12-17 18:59:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク