Perpetual Humanoid Control for Real-time Simulated Avatars

要約

タイトル:リアルタイムシミュレートアバターのための永続的なヒューマノイド制御

要約:

– 物理ベースのヒューマノイド制御を提案し、ノイズのある入力(例えば、ビデオからのポーズ推定や言語から生成されたポーズ)や予期しない落下に対する高精度の動き模倣と耐故障性を実現しています。
– 外部の安定化力を使用せずに、1万のモーション・クリップを学習して、自然に失敗状態から復帰することができます。
– 参照動作が与えられれば、リセットを必要とせずに、シミュレートアバターを永続的に制御することができます。
– 「進行的乗法制御方針(PMCP)」を提案しており、より難しいモーションシーケンスを学ぶための新しいネットワーク容量を動的に割り当てることができます。PMCPにより、大規模なモーションデータベースからの学習や、失敗状態からの回復などの新しいタスクの追加に対して効率的なスケーリングが可能になります。
– ライブで、実時間のマルチパーソン・アバターの使用例で、ビデオベースのポーズ推定や言語ベースのモーションジェネレータからノイズのあるポーズを模倣するために、我々の制御器の効果を実証しています。

要約(オリジナル)

We present a physics-based humanoid controller that achieves high-fidelity motion imitation and fault-tolerant behavior in the presence of noisy input (e.g. pose estimates from video or generated from language) and unexpected falls. Our controller scales up to learning ten thousand motion clips without using any external stabilizing forces and learns to naturally recover from fail-state. Given reference motion, our controller can perpetually control simulated avatars without requiring resets. At its core, we propose the progressive multiplicative control policy (PMCP), which dynamically allocates new network capacity to learn harder and harder motion sequences. PMCP allows efficient scaling for learning from large-scale motion databases and adding new tasks, such as fail-state recovery, without catastrophic forgetting. We demonstrate the effectiveness of our controller by using it to imitate noisy poses from video-based pose estimators and language-based motion generators in a live and real-time multi-person avatar use case.

arxiv情報

著者 Zhengyi Luo,Jinkun Cao,Alexander Winkler,Kris Kitani,Weipeng Xu
発行日 2023-05-10 20:51:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.GR, cs.RO パーマリンク