UniCtrl: Improving the Spatiotemporal Consistency of Text-to-Video Diffusion Models via Training-Free Unified Attention Control

要約

ビデオ拡散モデルはビデオ生成用に開発されており、通常はテキストと画像の調整を統合して、生成されたコンテンツの制御を強化します。
進歩にもかかわらず、特にテキスト プロンプトを制御条件として使用する場合、フレーム間の一貫性を確保することは依然として課題です。
この問題に対処するために、追加のトレーニングなしでテキストからビデオへのモデルによって生成されたビデオの時空間的一貫性と動きの多様性を向上させるために普遍的に適用できる新しいプラグアンドプレイ手法である UniCtrl を紹介します。
UniCtrl は、クロスフレーム セルフ アテンション コントロールを通じて異なるフレーム間でセマンティックな一貫性を確保し、同時にモーション インジェクションと時空間同期を通じてモーションの品質と時空間の一貫性を強化します。
私たちの実験結果は、さまざまなテキストからビデオへのモデルを強化する際の UniCtrl の有効性を実証し、その有効性と普遍性を裏付けています。

要約(オリジナル)

Video Diffusion Models have been developed for video generation, usually integrating text and image conditioning to enhance control over the generated content. Despite the progress, ensuring consistency across frames remains a challenge, particularly when using text prompts as control conditions. To address this problem, we introduce UniCtrl, a novel, plug-and-play method that is universally applicable to improve the spatiotemporal consistency and motion diversity of videos generated by text-to-video models without additional training. UniCtrl ensures semantic consistency across different frames through cross-frame self-attention control, and meanwhile, enhances the motion quality and spatiotemporal consistency through motion injection and spatiotemporal synchronization. Our experimental results demonstrate UniCtrl’s efficacy in enhancing various text-to-video models, confirming its effectiveness and universality.

arxiv情報

著者 Xuweiyi Chen,Tian Xia,Sihan Xu
発行日 2024-03-06 10:46:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク