要約
テキスト間拡散モデルにより、テキストの指示に従う高品質のビデオの生成を可能にし、多様で個別のコンテンツを簡単に作成できます。
ただし、既存のアプローチは、主に高品質の短いビデオ生成(通常16または24フレーム)に焦点を当てており、長いビデオ統合の場合に素朴に拡張されたときにハードカットで終わります。
これらの制限を克服するために、80、240、600、1200以上の長いビデオ生成のための自己回帰アプローチであるStreamingT2Vを導入します。
重要なコンポーネントは次のとおりです。(i)条件付き注意モジュール(CAM)と呼ばれる短期メモリブロック。これは、注意メカニズムを介して前のチャンクから抽出された機能の現在の生成を条件付けし、一貫したチャンク遷移につながります。
チャンク間の矛盾なしに無限に長いビデオにビデオエンハンサーを自動網目上に適用する。
実験では、StreamingT2Vが高運動量を生成することが示されています。
対照的に、すべての競合する画像からビデオからビデオへのメソッドは、自己回帰的な方法で素朴に適用されると、ビデオの停滞を起こしやすくなります。
したがって、競合他社を一貫性と動きで優先する高品質のシームレスなテキストから長いビデオジェネレーターをStreamingT2Vで提案します。
私たちのコードは、https://github.com/picsart-ai-research/streamingt2vで入手できます
要約(オリジナル)
Text-to-video diffusion models enable the generation of high-quality videos that follow text instructions, making it easy to create diverse and individual content. However, existing approaches mostly focus on high-quality short video generation (typically 16 or 24 frames), ending up with hard-cuts when naively extended to the case of long video synthesis. To overcome these limitations, we introduce StreamingT2V, an autoregressive approach for long video generation of 80, 240, 600, 1200 or more frames with smooth transitions. The key components are:(i) a short-term memory block called conditional attention module (CAM), which conditions the current generation on the features extracted from the previous chunk via an attentional mechanism, leading to consistent chunk transitions, (ii) a long-term memory block called appearance preservation module, which extracts high-level scene and object features from the first video chunk to prevent the model from forgetting the initial scene, and (iii) a randomized blending approach that enables to apply a video enhancer autoregressively for infinitely long videos without inconsistencies between chunks. Experiments show that StreamingT2V generates high motion amount. In contrast, all competing image-to-video methods are prone to video stagnation when applied naively in an autoregressive manner. Thus, we propose with StreamingT2V a high-quality seamless text-to-long video generator that outperforms competitors with consistency and motion. Our code will be available at: https://github.com/Picsart-AI-Research/StreamingT2V
arxiv情報
著者 | Roberto Henschel,Levon Khachatryan,Hayk Poghosyan,Daniil Hayrapetyan,Vahram Tadevosyan,Zhangyang Wang,Shant Navasardyan,Humphrey Shi |
発行日 | 2025-04-16 13:38:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google