要約
Sora の登場は、テキストからビデオへの拡散モデルの新時代を告げ、ビデオ生成と潜在的なアプリケーションに大きな進歩をもたらします。
ただし、Sora は、他のテキストからビデオへの拡散モデルと同様に、プロンプトに大きく依存しており、テキストからビデオへのプロンプトの研究を特徴とする公開されているデータセットはありません。
このペーパーでは、実際のユーザーからの 167 万個のユニークなテキストからビデオへのプロンプトを含む初の大規模データセットである VidProM を紹介します。
さらに、このデータセットには、いくつかの関連データとともに、4 つの最先端の拡散モデルによって生成された 669 万本のビデオが含まれています。
最初に、この大規模なデータセットのキュレーションについて説明します。このプロセスには時間とコストの両方がかかります。
続いて、VidProM が画像生成用の大規模プロンプト ギャラリー データセットである DiffusionDB とどのように異なるかを説明することで、テキストからビデオへの生成専用に設計された新しいプロンプト データセットの必要性を強調します。
私たちの広範かつ多様なデータセットは、多くの刺激的な新しい研究分野も開拓します。
たとえば、テキストからビデオへのプロンプト エンジニアリング、効率的なビデオ生成、拡散モデルのビデオ コピー検出を検討して、より優れた、より効率的で安全なモデルを開発することをお勧めします。
このプロジェクト (収集されたデータセット VidProM および関連コードを含む) は、CC-BY-NC 4.0 ライセンスに基づいて https://vidprom.github.io で公開されています。
要約(オリジナル)
The arrival of Sora marks a new era for text-to-video diffusion models, bringing significant advancements in video generation and potential applications. However, Sora, along with other text-to-video diffusion models, is highly reliant on prompts, and there is no publicly available dataset that features a study of text-to-video prompts. In this paper, we introduce VidProM, the first large-scale dataset comprising 1.67 Million unique text-to-Video Prompts from real users. Additionally, this dataset includes 6.69 million videos generated by four state-of-the-art diffusion models, alongside some related data. We initially discuss the curation of this large-scale dataset, a process that is both time-consuming and costly. Subsequently, we underscore the need for a new prompt dataset specifically designed for text-to-video generation by illustrating how VidProM differs from DiffusionDB, a large-scale prompt-gallery dataset for image generation. Our extensive and diverse dataset also opens up many exciting new research areas. For instance, we suggest exploring text-to-video prompt engineering, efficient video generation, and video copy detection for diffusion models to develop better, more efficient, and safer models. The project (including the collected dataset VidProM and related code) is publicly available at https://vidprom.github.io under the CC-BY-NC 4.0 License.
arxiv情報
著者 | Wenhao Wang,Yi Yang |
発行日 | 2024-05-14 13:01:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google