C$\cdot$ASE: Learning Conditional Adversarial Skill Embeddings for Physics-based Characters

要約

私たちは、物理ベースのキャラクターの条件付き敵対的スキル埋め込みを学習する効率的かつ効果的なフレームワークである C$\cdot$ASE を紹介します。
物理的にシミュレートされたキャラクターは、実行するスキルを直接操作する形で制御性を提供しながら、さまざまなスキルのレパートリーを学習できます。
C$\cdot$ASE は、低レベルの条件付きモデルをトレーニングして条件付き動作の分布を学習するため、異種のスキル モーションを同種のサンプルを含む個別のサブセットに分割します。
スキル条件付き模倣学習では、トレーニング後にキャラクターのスキルを明示的に制御できます。
このトレーニング コースには、焦点スキル サンプリング、骨格残留力、要素ごとの特徴マスキングが組み込まれており、さまざまな複雑さの多様なスキルのバランスを取り、ダイナミクスの不一致を軽減して俊敏な動きを習得し、より一般的な動作特性をそれぞれ把握します。
条件付きモデルは、トレーニングが完了すると、最先端のモデルを上回る、非常に多様で現実的なスキルを生み出すことができ、さまざまな下流タスクで再利用できます。
特に、明示的なスキル制御ハンドルにより、高レベルのポリシーまたはユーザーが希望のスキル仕様でキャラクターを指示できるようになり、これがインタラクティブなキャラクター アニメーションに有利であることが実証されました。

要約(オリジナル)

We present C$\cdot$ASE, an efficient and effective framework that learns conditional Adversarial Skill Embeddings for physics-based characters. Our physically simulated character can learn a diverse repertoire of skills while providing controllability in the form of direct manipulation of the skills to be performed. C$\cdot$ASE divides the heterogeneous skill motions into distinct subsets containing homogeneous samples for training a low-level conditional model to learn conditional behavior distribution. The skill-conditioned imitation learning naturally offers explicit control over the character’s skills after training. The training course incorporates the focal skill sampling, skeletal residual forces, and element-wise feature masking to balance diverse skills of varying complexities, mitigate dynamics mismatch to master agile motions and capture more general behavior characteristics, respectively. Once trained, the conditional model can produce highly diverse and realistic skills, outperforming state-of-the-art models, and can be repurposed in various downstream tasks. In particular, the explicit skill control handle allows a high-level policy or user to direct the character with desired skill specifications, which we demonstrate is advantageous for interactive character animation.

arxiv情報

著者 Zhiyang Dou,Xuelin Chen,Qingnan Fan,Taku Komura,Wenping Wang
発行日 2023-09-20 14:34:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GR, cs.LG パーマリンク