Videoshop: Localized Semantic Video Editing with Noise-Extrapolated Diffusion Inversion

要約

ローカライズされたセマンティック編集のためのトレーニング不要のビデオ編集アルゴリズムである Videoshop を紹介します。
Videoshop では、ユーザーは Photoshop やジェネレーティブ インペインティングなどの編集ソフトウェアを使用して最初のフレームを変更できます。
それらの変更は、意味的、空間的、時間的に一貫した動きで、残りのフレームに自動的に伝播されます。
不正確なテキストによる指示によってのみ編集を可能にする既存の方法とは異なり、Videoshop を使用すると、ユーザーは位置や外観をきめ細かく制御しながら、オブジェクトの追加または削除、オブジェクトの意味的な変更、ビデオへのストック写真の挿入などを行うことができます。
これは、ノイズ外挿を使用して潜在を反転することで画像ベースのビデオ編集を通じてこれを実現し、そこから編集された画像に条件付けされたビデオを生成します。
Videoshop は、10 の評価指標を使用した 2 つの編集ベンチマークの 6 つのベースラインに対して、より高品質な編集を生成します。

要約(オリジナル)

We introduce Videoshop, a training-free video editing algorithm for localized semantic edits. Videoshop allows users to use any editing software, including Photoshop and generative inpainting, to modify the first frame; it automatically propagates those changes, with semantic, spatial, and temporally consistent motion, to the remaining frames. Unlike existing methods that enable edits only through imprecise textual instructions, Videoshop allows users to add or remove objects, semantically change objects, insert stock photos into videos, etc. with fine-grained control over locations and appearance. We achieve this through image-based video editing by inverting latents with noise extrapolation, from which we generate videos conditioned on the edited image. Videoshop produces higher quality edits against 6 baselines on 2 editing benchmarks using 10 evaluation metrics.

arxiv情報

著者 Xiang Fan,Anand Bhattad,Ranjay Krishna
発行日 2024-03-22 17:45:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク