Taming Diffusion Probabilistic Models for Character Control

要約

モーション拡散確率モデルを効果的に利用して、高品質で多様なキャラクター アニメーションを生成し、ユーザーが供給するさまざまな動的な制御信号にリアルタイムで応答する、新しいキャラクター制御フレームワークを紹介します。
私たちの手法の中心となるのは、トランスフォーマーベースの条件付き自己回帰モーション拡散モデル (CAMDM) です。これは、キャラクターの過去のモーションを入力として受け取り、高レベルの粗いユーザー制御を条件として、さまざまな潜在的な将来のモーションを生成できます。
リアルタイム コントローラーに必要な多様性、制御性、計算効率の要求を満たすために、いくつかの主要なアルゴリズム設計が組み込まれています。
これらには、個別の条件のトークン化、過去のモーションに関する分類子を使用しないガイダンス、ヒューリスティックな将来の軌道拡張が含まれており、これらはすべて、キャラクター制御のためのモーション拡散確率モデルを飼いならすことに関連する課題に対処するために設計されています。
その結果、私たちの作品は、ユーザーのインタラクティブな制御に基づいて高品質で多様なキャラクター アニメーションをリアルタイムで生成できる最初のモデルとなり、単一の統一モデルで複数のスタイルでキャラクターをアニメーション化することをサポートします。
さまざまな移動スキルのセットに基づいてメソッドを評価し、既存のキャラクター コントローラーに対するこのメソッドのメリットを実証します。
プロジェクトページとソースコード: https://aiganimation.github.io/CAMDM/

要約(オリジナル)

We present a novel character control framework that effectively utilizes motion diffusion probabilistic models to generate high-quality and diverse character animations, responding in real-time to a variety of dynamic user-supplied control signals. At the heart of our method lies a transformer-based Conditional Autoregressive Motion Diffusion Model (CAMDM), which takes as input the character’s historical motion and can generate a range of diverse potential future motions conditioned on high-level, coarse user control. To meet the demands for diversity, controllability, and computational efficiency required by a real-time controller, we incorporate several key algorithmic designs. These include separate condition tokenization, classifier-free guidance on past motion, and heuristic future trajectory extension, all designed to address the challenges associated with taming motion diffusion probabilistic models for character control. As a result, our work represents the first model that enables real-time generation of high-quality, diverse character animations based on user interactive control, supporting animating the character in multiple styles with a single unified model. We evaluate our method on a diverse set of locomotion skills, demonstrating the merits of our method over existing character controllers. Project page and source codes: https://aiganimation.github.io/CAMDM/

arxiv情報

著者 Rui Chen,Mingyi Shi,Shaoli Huang,Ping Tan,Taku Komura,Xuelin Chen
発行日 2024-04-23 15:20:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.GR パーマリンク