要約
拡散ベースのモデルの最近の進歩により、テキストから画像を生成することに大きな成功を収めていることが実証されています。
ただし、ビデオ編集モデルは、ビジュアル品質とユーザー制御のレベルがまだ同じレベルに達していません。
これに対処するために、追加のトレーニングを必要とせずに、事前トレーニングされたテキストから画像への拡散モデルを活用するゼロショットビデオ編集手法である RAVE を紹介します。
RAVE は入力ビデオとテキスト プロンプトを取得して、元のモーションとセマンティック構造を維持しながら高品質のビデオを生成します。
これは、フレーム間の時空間相互作用を活用した新しいノイズ シャッフル戦略を採用し、既存の方法よりも速く時間的に一貫したビデオを生成します。
メモリ要件の点でも効率的であり、長いビデオを処理できます。
RAVE は、ローカル属性の変更から形状の変形まで、幅広い編集が可能です。
RAVE の多用途性を実証するために、オブジェクトに焦点を当てたシーンから、ダンスやタイピングなどの複雑な人間の活動、泳ぐ魚やボートをフィーチャーしたダイナミックなシーンに至るまで、包括的なビデオ評価データセットを作成しました。
私たちの定性的および定量的実験では、既存の方法と比較して、さまざまなビデオ編集シナリオにおける RAVE の有効性が強調されています。
私たちのコード、データセット、ビデオは https://rave-video.github.io にあります。
要約(オリジナル)
Recent advancements in diffusion-based models have demonstrated significant success in generating images from text. However, video editing models have not yet reached the same level of visual quality and user control. To address this, we introduce RAVE, a zero-shot video editing method that leverages pre-trained text-to-image diffusion models without additional training. RAVE takes an input video and a text prompt to produce high-quality videos while preserving the original motion and semantic structure. It employs a novel noise shuffling strategy, leveraging spatio-temporal interactions between frames, to produce temporally consistent videos faster than existing methods. It is also efficient in terms of memory requirements, allowing it to handle longer videos. RAVE is capable of a wide range of edits, from local attribute modifications to shape transformations. In order to demonstrate the versatility of RAVE, we create a comprehensive video evaluation dataset ranging from object-focused scenes to complex human activities like dancing and typing, and dynamic scenes featuring swimming fish and boats. Our qualitative and quantitative experiments highlight the effectiveness of RAVE in diverse video editing scenarios compared to existing methods. Our code, dataset and videos can be found in https://rave-video.github.io.
arxiv情報
著者 | Ozgur Kara,Bariscan Kurtkaya,Hidir Yesiltepe,James M. Rehg,Pinar Yanardag |
発行日 | 2023-12-07 18:43:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google