Autoregressive Image Generation without Vector Quantization

要約

従来の通念では、画像生成の自己回帰モデルには通常、ベクトル量子化トークンが伴うと考えられています。
離散値空間はカテゴリ分布の表現を容易にすることができますが、自己回帰モデリングには必ずしも必要ではないことがわかります。
この研究では、拡散手順を使用してトークンごとの確率分布をモデル化することを提案します。これにより、連続値空間で自己回帰モデルを適用できるようになります。
カテゴリカルなクロスエントロピー損失を使用するのではなく、トークンごとの確率をモデル化する拡散損失関数を定義します。
このアプローチにより、離散値のトークナイザーが不要になります。
標準的な自己回帰モデルや一般化マスク自己回帰 (MAR) バリアントなど、幅広いケースにわたってその有効性を評価します。
ベクトル量子化を削除することで、当社の画像ジェネレーターはシーケンス モデリングの速度の利点を享受しながら、強力な結果を達成します。
この取り組みが、他の連続値ドメインやアプリケーションでの自己回帰生成の使用を促進することを願っています。

要約(オリジナル)

Conventional wisdom holds that autoregressive models for image generation are typically accompanied by vector-quantized tokens. We observe that while a discrete-valued space can facilitate representing a categorical distribution, it is not a necessity for autoregressive modeling. In this work, we propose to model the per-token probability distribution using a diffusion procedure, which allows us to apply autoregressive models in a continuous-valued space. Rather than using categorical cross-entropy loss, we define a Diffusion Loss function to model the per-token probability. This approach eliminates the need for discrete-valued tokenizers. We evaluate its effectiveness across a wide range of cases, including standard autoregressive models and generalized masked autoregressive (MAR) variants. By removing vector quantization, our image generator achieves strong results while enjoying the speed advantage of sequence modeling. We hope this work will motivate the use of autoregressive generation in other continuous-valued domains and applications.

arxiv情報

著者 Tianhong Li,Yonglong Tian,He Li,Mingyang Deng,Kaiming He
発行日 2024-06-17 17:59:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク