Efficient Emotional Adaptation for Audio-Driven Talking-Head Generation

要約

オーディオ駆動トーキングヘッド合成は、仮想人間関連アプリケーションの人気の研究トピックです。
しかし、既存の方法は柔軟性が低く非効率であり、ガイダンス ビデオから会話者の予測に感情を移すために高価なエンドツーエンドのトレーニングが必要であり、大きな限界があります。
この研究では、パラメータ効率の高い適応を通じて、感情に依存しないトーキングヘッド モデルを、費用対効果が高く効率的な方法で感情制御可能なトーキングヘッド モデルに変換する、オーディオ駆動トーキングヘッド (EAT) の感情適応法を提案します。
私たちのアプローチは、事前にトレーニングされた感情に依存しないトーキングヘッドトランスフォーマーを利用し、さまざまな観点から 3 つの軽量適応 (深い感情プロンプト、感情変形ネットワーク、感情適応モジュール) を導入して、正確で現実的な感情制御を可能にします。
私たちの実験は、私たちのアプローチが LRW や MEAD などの広く使用されているベンチマークで最先端のパフォーマンスを達成することを示しています。
さらに、パラメーター効率の高い適応は、感情トレーニング ビデオが不足している、または存在しないシナリオでも、顕著な一般化能力を示します。
プロジェクトウェブサイト: https://yuangan.github.io/eat/

要約(オリジナル)

Audio-driven talking-head synthesis is a popular research topic for virtual human-related applications. However, the inflexibility and inefficiency of existing methods, which necessitate expensive end-to-end training to transfer emotions from guidance videos to talking-head predictions, are significant limitations. In this work, we propose the Emotional Adaptation for Audio-driven Talking-head (EAT) method, which transforms emotion-agnostic talking-head models into emotion-controllable ones in a cost-effective and efficient manner through parameter-efficient adaptations. Our approach utilizes a pretrained emotion-agnostic talking-head transformer and introduces three lightweight adaptations (the Deep Emotional Prompts, Emotional Deformation Network, and Emotional Adaptation Module) from different perspectives to enable precise and realistic emotion controls. Our experiments demonstrate that our approach achieves state-of-the-art performance on widely-used benchmarks, including LRW and MEAD. Additionally, our parameter-efficient adaptations exhibit remarkable generalization ability, even in scenarios where emotional training videos are scarce or nonexistent. Project website: https://yuangan.github.io/eat/

arxiv情報

著者 Yuan Gan,Zongxin Yang,Xihang Yue,Lingyun Sun,Yi Yang
発行日 2023-10-12 15:04:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.SD, eess.AS パーマリンク