Is One GPU Enough? Pushing Image Generation at Higher-Resolutions with Foundation Models

要約

この作業では、単一の GPU で高解像度の画像をサンプリングするためのゼロショット テキストから画像への生成フレームワークである Pixelsmith を紹介します。
私たちは、事前トレーニングされた拡散モデルの出力を 1000 倍にスケールできることを初めて示し、追加コストなしでギガピクセル画像生成への道を開きます。
私たちのカスケード手法では、最低解像度で生成された画像をベースラインとして使用し、より高い解像度でサンプリングします。
ガイダンスとして、最初に生成された画像に含まれる全体的な構造と強化された詳細を融合する調整可能なメカニズムであるスライダーを紹介します。
各推論ステップで、潜在空間全体ではなくパッチのノイズを除去し、画像の解像度に関係なく単一の GPU でプロセスを処理できるようにメモリ需要を最小限に抑えます。
私たちの実験結果は、Pixelsmith が既存の技術と比較して高い品質と多様性を達成するだけでなく、サンプリング時間とアーチファクトも削減することを示しています。
私たちの作業のコードは https://github.com/Thanos-DB/Pixelsmith で入手できます。

要約(オリジナル)

In this work, we introduce Pixelsmith, a zero-shot text-to-image generative framework to sample images at higher resolutions with a single GPU. We are the first to show that it is possible to scale the output of a pre-trained diffusion model by a factor of 1000, opening the road for gigapixel image generation at no additional cost. Our cascading method uses the image generated at the lowest resolution as a baseline to sample at higher resolutions. For the guidance, we introduce the Slider, a tunable mechanism that fuses the overall structure contained in the first-generated image with enhanced fine details. At each inference step, we denoise patches rather than the entire latent space, minimizing memory demands such that a single GPU can handle the process, regardless of the image’s resolution. Our experimental results show that Pixelsmith not only achieves higher quality and diversity compared to existing techniques, but also reduces sampling time and artifacts. The code for our work is available at https://github.com/Thanos-DB/Pixelsmith.

arxiv情報

著者 Athanasios Tragakis,Marco Aversa,Chaitanya Kaul,Roderick Murray-Smith,Daniele Faccio
発行日 2024-10-24 12:31:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク