要約
物理的にシミュレートされた文字がモーションプライアーを効率的に利用できるようにする多目的な潜在表現を提示します。
複数のタスクにわたって共有される強力なモーション埋め込みを構築するには、物理コントローラーは、簡単に探索し、高品質のモーションを生成できる豊富な潜在スペースを使用する必要があります。
連続的で離散的な潜在表現を統合して、幅広い挑戦的な制御タスクに適応できる汎用性の高い動きを構築することを提案します。
具体的には、個別の潜在モデルを構築して、崩壊せずに特徴的な後部分布をキャプチャし、同時にサンプリングされたベクトルを連続的な残差とともに増強して、ジッタリングなしで高品質の滑らかな動きを生成します。
さらに、残留ベクトル量子化を組み込みます。これは、先行事前の離散運動の容量を最大化するだけでなく、タスク学習フェーズ中にアクション空間を効率的に抽象化します。
私たちのエージェントは、無条件の動きの生成を通じて学習された動きを横断するだけで、多様でありながらスムーズな動きを生成できることを実証します。
さらに、我々のモデルは、既存の潜在表現では達成できなかった、ヘッドマウントデバイス追跡や不規則な間隔での間に移動することを含む、非常に表現力のある自然運動でまばらな目標条件を堅牢に満たしています。
要約(オリジナル)
We present a versatile latent representation that enables physically simulated character to efficiently utilize motion priors. To build a powerful motion embedding that is shared across multiple tasks, the physics controller should employ rich latent space that is easily explored and capable of generating high-quality motion. We propose integrating continuous and discrete latent representations to build a versatile motion prior that can be adapted to a wide range of challenging control tasks. Specifically, we build a discrete latent model to capture distinctive posterior distribution without collapse, and simultaneously augment the sampled vector with the continuous residuals to generate high-quality, smooth motion without jittering. We further incorporate Residual Vector Quantization, which not only maximizes the capacity of the discrete motion prior, but also efficiently abstracts the action space during the task learning phase. We demonstrate that our agent can produce diverse yet smooth motions simply by traversing the learned motion prior through unconditional motion generation. Furthermore, our model robustly satisfies sparse goal conditions with highly expressive natural motions, including head-mounted device tracking and motion in-betweening at irregular intervals, which could not be achieved with existing latent representations.
arxiv情報
著者 | Jinseok Bae,Jungdam Won,Donggeun Lim,Inwoo Hwang,Young Min Kim |
発行日 | 2025-03-17 04:45:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google