NaRCan: Natural Refined Canonical Image with Integration of Diffusion Prior for Video Editing

要約

我々は、入力ビデオを表す高品質の自然正準画像を生成する前に、ハイブリッド変形フィールドと拡散を統合するビデオ編集フレームワーク NaRCan を提案します。
私たちのアプローチは、ホモグラフィーを利用してグローバル モーションをモデル化し、多層パーセプトロン (MLP) を採用してローカルな残留変形をキャプチャし、複雑なビデオ ダイナミクスを処理するモデルの能力を強化します。
トレーニングの初期段階から事前に拡散を導入することで、私たちのモデルは、生成された画像が高品質で自然な外観を保持することを保証し、生成された正規画像をビデオ編集のさまざまな下流タスクに適したものにします。これは、現在の正規ベースでは実現できない機能です。
方法。
さらに、低ランク適応 (LoRA) 微調整を組み込み、トレーニング プロセスを 14 倍高速化するノイズと拡散の事前更新スケジューリング手法を導入しました。
広範な実験結果は、私たちの方法がさまざまなビデオ編集タスクにおいて既存のアプローチよりも優れており、一貫性のある高品質の編集ビデオシーケンスを生成することを示しています。
ビデオ結果については、プロジェクト ページ (https://koi953215.github.io/NaRCan_page/) をご覧ください。

要約(オリジナル)

We propose a video editing framework, NaRCan, which integrates a hybrid deformation field and diffusion prior to generate high-quality natural canonical images to represent the input video. Our approach utilizes homography to model global motion and employs multi-layer perceptrons (MLPs) to capture local residual deformations, enhancing the model’s ability to handle complex video dynamics. By introducing a diffusion prior from the early stages of training, our model ensures that the generated images retain a high-quality natural appearance, making the produced canonical images suitable for various downstream tasks in video editing, a capability not achieved by current canonical-based methods. Furthermore, we incorporate low-rank adaptation (LoRA) fine-tuning and introduce a noise and diffusion prior update scheduling technique that accelerates the training process by 14 times. Extensive experimental results show that our method outperforms existing approaches in various video editing tasks and produces coherent and high-quality edited video sequences. See our project page for video results at https://koi953215.github.io/NaRCan_page/.

arxiv情報

著者 Ting-Hsuan Chen,Jiewen Chan,Hau-Shiang Shiu,Shih-Han Yen,Chang-Han Yeh,Yu-Lun Liu
発行日 2024-10-29 15:21:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク