要約
我々は、潜在拡散に基づく大規模なテキストから画像への生成モデルである Kandinsky 3.0 を紹介します。これは、一連のテキストから画像への Kandinsky モデルを継続し、画像生成のより高い品質とリアリズムを達成するための進歩を反映しています。
Kandinsky 2.x の以前のバージョンと比較して、Kandinsky 3.0 は 2 倍の U-Net バックボーンと 10 倍のテキスト エンコーダを活用し、拡散マッピングを削除しています。
モデルのアーキテクチャ、データ収集手順、トレーニング手法、およびユーザー インタラクションの生成システムについて説明します。
多数の実験の結果として特定されたように、他のコンポーネントと比較してモデルの品質向上に最も大きな影響を与えた主要なコンポーネントに焦点を当てます。
並べて比較すると、カンディンスキーはテキストの理解が向上し、特定の領域でよりうまく機能するようになりました。
プロジェクトページ:https://ai-forever.github.io/Kandinsky-3
要約(オリジナル)
We present Kandinsky 3.0, a large-scale text-to-image generation model based on latent diffusion, continuing the series of text-to-image Kandinsky models and reflecting our progress to achieve higher quality and realism of image generation. Compared to previous versions of Kandinsky 2.x, Kandinsky 3.0 leverages a two times larger U-Net backbone, a ten times larger text encoder and removes diffusion mapping. We describe the architecture of the model, the data collection procedure, the training technique, and the production system of user interaction. We focus on the key components that, as we have identified as a result of a large number of experiments, had the most significant impact on improving the quality of our model compared to the others. By our side-by-side comparisons, Kandinsky becomes better in text understanding and works better on specific domains. Project page: https://ai-forever.github.io/Kandinsky-3
arxiv情報
著者 | Vladimir Arkhipkin,Andrei Filatov,Viacheslav Vasilev,Anastasia Maltseva,Said Azizov,Igor Pavlov,Julia Agafonova,Andrey Kuznetsov,Denis Dimitrov |
発行日 | 2023-12-06 14:13:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google