要約
我々は、入力モダリティの任意の組み合わせから、言語、画像、ビデオ、オーディオなどの出力モダリティの任意の組み合わせを生成できる新しい生成モデルである Composable Diffusion (CoDi) を紹介します。
既存の生成 AI システムとは異なり、CoDi は複数のモダリティを並行して生成でき、その入力はテキストや画像などのモダリティのサブセットに限定されません。
モダリティの多くの組み合わせに対するトレーニング データセットが存在しないにもかかわらず、入力空間と出力空間の両方でモダリティを調整することを提案します。
これにより、CoDi は、トレーニング データに存在しない場合でも、任意の入力の組み合わせを自由に条件付けして、モダリティのグループを生成できます。
CoDi は、拡散プロセスでアライメントをブリッジすることで共有マルチモーダル空間を構築する新しいコンポーザブル生成戦略を採用し、時間的にアライメントされたビデオやオーディオなど、絡み合ったモダリティの同期生成を可能にします。
高度にカスタマイズ可能で柔軟な CoDi は、強力なジョイントモダリティ生成品質を実現し、シングルモダリティ合成の最先端のユニモーダル合成を上回る、または同等のパフォーマンスを発揮します。
デモとコードを含むプロジェクト ページは https://codi-gen.github.io にあります。
要約(オリジナル)
We present Composable Diffusion (CoDi), a novel generative model capable of generating any combination of output modalities, such as language, image, video, or audio, from any combination of input modalities. Unlike existing generative AI systems, CoDi can generate multiple modalities in parallel and its input is not limited to a subset of modalities like text or image. Despite the absence of training datasets for many combinations of modalities, we propose to align modalities in both the input and output space. This allows CoDi to freely condition on any input combination and generate any group of modalities, even if they are not present in the training data. CoDi employs a novel composable generation strategy which involves building a shared multimodal space by bridging alignment in the diffusion process, enabling the synchronized generation of intertwined modalities, such as temporally aligned video and audio. Highly customizable and flexible, CoDi achieves strong joint-modality generation quality, and outperforms or is on par with the unimodal state-of-the-art for single-modality synthesis. The project page with demonstrations and code is at https://codi-gen.github.io
arxiv情報
著者 | Zineng Tang,Ziyi Yang,Chenguang Zhu,Michael Zeng,Mohit Bansal |
発行日 | 2023-05-19 17:38:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google