EMAGE: Towards Unified Holistic Co-Speech Gesture Generation via Expressive Masked Audio Gesture Modeling

要約

私たちは、顔、局所的な体、手、全体的な動きを含む、音声とマスクされたジェスチャーから全身の人間のジェスチャーを生成するフレームワークである EMAGE を提案します。
これを達成するために、最初に、新しいメッシュレベルの全体的な同時音声データセットである BEAT2 (BEAT-SMPLX-FLAME) を導入します。
BEAT2 は、MoShed SMPLX ボディと FLAME ヘッド パラメータを組み合わせ、頭、首、指の動きのモデリングをさらに洗練させ、コミュニティ標準化された高品質の 3D モーション キャプチャ データセットを提供します。
EMAGE は、トレーニング中にマスクされたボディ ジェスチャの事前情報を活用して、推論パフォーマンスを向上させます。
これには、マスクされたオーディオ ジェスチャ トランスフォーマーが含まれており、音声からジェスチャへの生成とマスクされたジェスチャの再構築に関する共同トレーニングを促進して、音声とボディ ジェスチャのヒントを効果的にエンコードします。
次に、マスクされたジェスチャからのエンコードされた体のヒントを個別に使用して、顔と体の動きを生成します。
さらに、EMAGE はオーディオのリズムと内容から音声特徴を適応的に結合し、4 つの構成 VQ-VAE を利用して結果の忠実性と多様性を強化します。
実験では、EMAGE が最先端のパフォーマンスで全体的なジェスチャを生成し、事前定義された時空間ジェスチャ入力を柔軟に受け入れて、完全な音声同期された結果を生成することが実証されました。
コードとデータセットは https://pantomatrix.github.io/EMAGE/ で入手できます。

要約(オリジナル)

We propose EMAGE, a framework to generate full-body human gestures from audio and masked gestures, encompassing facial, local body, hands, and global movements. To achieve this, we first introduce BEAT2 (BEAT-SMPLX-FLAME), a new mesh-level holistic co-speech dataset. BEAT2 combines MoShed SMPLX body with FLAME head parameters and further refines the modeling of head, neck, and finger movements, offering a community-standardized, high-quality 3D motion captured dataset. EMAGE leverages masked body gesture priors during training to boost inference performance. It involves a Masked Audio Gesture Transformer, facilitating joint training on audio-to-gesture generation and masked gesture reconstruction to effectively encode audio and body gesture hints. Encoded body hints from masked gestures are then separately employed to generate facial and body movements. Moreover, EMAGE adaptively merges speech features from the audio’s rhythm and content and utilizes four compositional VQ-VAEs to enhance the results’ fidelity and diversity. Experiments demonstrate that EMAGE generates holistic gestures with state-of-the-art performance and is flexible in accepting predefined spatial-temporal gesture inputs, generating complete, audio-synchronized results. Our code and dataset are available at https://pantomatrix.github.io/EMAGE/

arxiv情報

著者 Haiyang Liu,Zihao Zhu,Giorgio Becherini,Yichen Peng,Mingyang Su,You Zhou,Xuefei Zhe,Naoya Iwamoto,Bo Zheng,Michael J. Black
発行日 2024-03-25 13:01:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク