Expressive Whole-Body Control for Humanoid Robots

要約

人型ロボットが現実世界で豊かで多様で表現力豊かな動きを生成できるようにすることはできるのでしょうか?
私たちは、人間の動きをできるだけ現実的に模倣するために、人間サイズのロボット上で全身制御ポリシーを学習することを提案します。
このようなポリシーをトレーニングするために、強化学習フレームワークのグラフィックス コミュニティからの大規模なヒューマン モーション キャプチャ データを活用します。
ただし、自由度や身体能力に大きなギャップがあるため、モーション キャプチャ データセットを使用して模倣学習を直接実行しても、実際の人型ロボットでは機能しません。
私たちの手法 Expressive Whole-Body Control (Exbody) は、ヒューマノイドの上半身に参照動作を模倣するよう促す一方で、2 本の脚の模倣制約を緩和し、指定された速度に確実に従うことのみを要求することで、この問題に取り組みます。
シミュレーションと Sim2Real 転送でのトレーニングにより、私たちのポリシーは、人型ロボットを制御して、さまざまなスタイルで歩き、人間と握手をし、さらには現実世界で人間と一緒に踊ることさえできます。
私たちは、シミュレーションと現実世界の両方で多様な動きについて広範な研究と比較を実施し、アプローチの有効性を示します。

要約(オリジナル)

Can we enable humanoid robots to generate rich, diverse, and expressive motions in the real world? We propose to learn a whole-body control policy on a human-sized robot to mimic human motions as realistic as possible. To train such a policy, we leverage the large-scale human motion capture data from the graphics community in a Reinforcement Learning framework. However, directly performing imitation learning with the motion capture dataset would not work on the real humanoid robot, given the large gap in degrees of freedom and physical capabilities. Our method Expressive Whole-Body Control (Exbody) tackles this problem by encouraging the upper humanoid body to imitate a reference motion, while relaxing the imitation constraint on its two legs and only requiring them to follow a given velocity robustly. With training in simulation and Sim2Real transfer, our policy can control a humanoid robot to walk in different styles, shake hands with humans, and even dance with a human in the real world. We conduct extensive studies and comparisons on diverse motions in both simulation and the real world to show the effectiveness of our approach.

arxiv情報

著者 Xuxin Cheng,Yandong Ji,Junming Chen,Ruihan Yang,Ge Yang,Xiaolong Wang
発行日 2024-03-06 02:19:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク