要約
この論文は、全体的な安定性と堅牢性を維持しながら、現実世界のヒューマノイドロボットが表現力豊かで動的な全身の動きを実行できるようにするという課題に取り組んでいます。
高度な表現力豊かな全身制御(Exbody2)を提案します。これは、人間のモーションキャプチャとシミュレーションデータの両方でトレーニングされ、現実世界に転送される全身追跡コントローラーを生産する方法です。
体全体の速度追跡をボディランドマークの追跡から切り離す手法を紹介します。
教師ポリシーを使用して、ロボットの運動学によりよく適合し、実行不可能な全身の動きを自動的に除去する中間データを作成します。
この2段階のアプローチにより、歩き、しゃがみ、踊ることができるロボットに展開できる学生ポリシーを作成することができました。
また、汎用性と特定の動きの追跡性能とのトレードオフに関する洞察を提供します。
他のデータを犠牲にして、少量のデータを微調整した後、追跡パフォーマンスの大幅な改善が観察されました。
要約(オリジナル)
This paper tackles the challenge of enabling real-world humanoid robots to perform expressive and dynamic whole-body motions while maintaining overall stability and robustness. We propose Advanced Expressive Whole-Body Control (Exbody2), a method for producing whole-body tracking controllers that are trained on both human motion capture and simulated data and then transferred to the real world. We introduce a technique for decoupling the velocity tracking of the entire body from tracking body landmarks. We use a teacher policy to produce intermediate data that better conforms to the robot’s kinematics and to automatically filter away infeasible whole-body motions. This two-step approach enabled us to produce a student policy that can be deployed on the robot that can walk, crouch, and dance. We also provide insight into the trade-off between versatility and the tracking performance on specific motions. We observed significant improvement of tracking performance after fine-tuning on a small amount of data, at the expense of the others.
arxiv情報
著者 | Mazeyu Ji,Xuanbin Peng,Fangchen Liu,Jialong Li,Ge Yang,Xuxin Cheng,Xiaolong Wang |
発行日 | 2025-03-12 00:40:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google