Animate-A-Story: Storytelling with Retrieval-Augmented Video Generation

要約

視覚的なストーリーテリング用のビデオの生成は、通常、実写撮影またはグラフィックス アニメーション レンダリングのいずれかを必要とする、退屈で複雑なプロセスになる場合があります。
これらの課題を回避するために、私たちの重要なアイデアは、既存のビデオ クリップを豊富に利用し、外観をカスタマイズすることで一貫したストーリーテリング ビデオを合成することです。
これは、2 つの機能モジュールで構成されるフレームワークを開発することで実現します。(i) クエリ テキストで記述された目的のシーンまたはモーション コンテキストをビデオ候補に提供するモーション構造検索。(ii) 構造ガイド付きテキストからビデオへの合成。
モーション構造とテキスト プロンプトのガイダンスに従って、プロットに合わせたビデオを生成します。
最初のモジュールでは、既製のビデオ検索システムを活用し、ビデオ深度をモーション構造として抽出します。
2 番目のモジュールでは、構造と文字を柔軟に制御できる制御可能なビデオ生成モデルを提案します。
ビデオは、構造ガイドと外観の指示に従って合成されます。
クリップ間で視覚的な一貫性を確保するために、テキスト プロンプトを通じて目的のキャラクター アイデンティティを指定できる、効果的なコンセプト パーソナライゼーション アプローチを提案します。
広範な実験により、私たちのアプローチがさまざまな既存のベースラインに比べて大きな利点を示すことが実証されました。

要約(オリジナル)

Generating videos for visual storytelling can be a tedious and complex process that typically requires either live-action filming or graphics animation rendering. To bypass these challenges, our key idea is to utilize the abundance of existing video clips and synthesize a coherent storytelling video by customizing their appearances. We achieve this by developing a framework comprised of two functional modules: (i) Motion Structure Retrieval, which provides video candidates with desired scene or motion context described by query texts, and (ii) Structure-Guided Text-to-Video Synthesis, which generates plot-aligned videos under the guidance of motion structure and text prompts. For the first module, we leverage an off-the-shelf video retrieval system and extract video depths as motion structure. For the second module, we propose a controllable video generation model that offers flexible controls over structure and characters. The videos are synthesized by following the structural guidance and appearance instruction. To ensure visual consistency across clips, we propose an effective concept personalization approach, which allows the specification of the desired character identities through text prompts. Extensive experiments demonstrate that our approach exhibits significant advantages over various existing baselines.

arxiv情報

著者 Yingqing He,Menghan Xia,Haoxin Chen,Xiaodong Cun,Yuan Gong,Jinbo Xing,Yong Zhang,Xintao Wang,Chao Weng,Ying Shan,Qifeng Chen
発行日 2023-07-13 17:57:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク