GLIGEN: Open-Set Grounded Text-to-Image Generation

要約

大規模なテキストから画像への拡散モデルは驚くべき進歩を遂げました。
しかし、テキスト入力のみが現状であり、操作性を阻害する可能性があります。
この作業では、GLIGEN (Grounded-Language-to-Image Generation) を提案します。これは、既存の事前トレーニング済みのテキストから画像への拡散モデルの機能を基に構築および拡張する新しいアプローチであり、グラウンディング入力でも条件付けできるようにします。
事前トレーニング済みモデルの膨大な概念知識を保持するために、そのすべての重みを凍結し、ゲート メカニズムを介して新しいトレーニング可能なレイヤーにグラウンディング情報を注入します。
私たちのモデルは、キャプションとバウンディングボックスの条件入力を使用して、オープンワールドの接地された text2img 生成を実現し、接地機能は新しい空間構成と概念にうまく一般化されます。
COCO および LVIS での GLIGEN のゼロ ショット パフォーマンスは、既存の監視されたレイアウトから画像へのベースラインよりも大幅に優れています。

要約(オリジナル)

Large-scale text-to-image diffusion models have made amazing advances. However, the status quo is to use text input alone, which can impede controllability. In this work, we propose GLIGEN, Grounded-Language-to-Image Generation, a novel approach that builds upon and extends the functionality of existing pre-trained text-to-image diffusion models by enabling them to also be conditioned on grounding inputs. To preserve the vast concept knowledge of the pre-trained model, we freeze all of its weights and inject the grounding information into new trainable layers via a gated mechanism. Our model achieves open-world grounded text2img generation with caption and bounding box condition inputs, and the grounding ability generalizes well to novel spatial configuration and concepts. GLIGEN’s zero-shot performance on COCO and LVIS outperforms that of existing supervised layout-to-image baselines by a large margin.

arxiv情報

著者 Yuheng Li,Haotian Liu,Qingyang Wu,Fangzhou Mu,Jianwei Yang,Jianfeng Gao,Chunyuan Li,Yong Jae Lee
発行日 2023-01-17 18:58:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.GR, cs.LG パーマリンク