要約
多層画像生成は、ユーザーが特定の画像レイヤーを分離、選択、編集し、生成モデルとの相互作用に革命をもたらすことを可能にする基本的なタスクです。
このホワイトペーパーでは、グローバルなテキストプロンプトと匿名の領域レイアウトに基づいて、可変多層透過画像の直接生成を促進する匿名地域トランス(ART)を紹介します。
スキーマ理論に触発されたものは、知識がフレームワーク(スキーマ)で編成されていることを示唆していることを示唆しているため、人々はそれを事前の知識にリンクすることで新しい情報から解釈して学習できるようにします。
画像生成タスクの以前に支配的なセマンティックレイアウトとは対照的に、どのテキストトークンと一致します。
さらに、各匿名領域に属する視覚トークンのみを選択する層ごとの領域作物メカニズムは、注意計算コストを大幅に削減し、多数の異なる層(50+など)で効率的な生成画像を有効にします。
完全な注意アプローチと比較すると、私たちの方法は12倍以上速く、層の競合が少なくなります。
さらに、共同で可変多層画像の透明度の直接エンコードとデコードをサポートする高品質のマルチレイヤー透明画像自動エンコーダーを提案します。
正確な制御とスケーラブルなレイヤー生成を可能にすることにより、ARTはインタラクティブなコンテンツ作成のための新しいパラダイムを確立します。
要約(オリジナル)
Multi-layer image generation is a fundamental task that enables users to isolate, select, and edit specific image layers, thereby revolutionizing interactions with generative models. In this paper, we introduce the Anonymous Region Transformer (ART), which facilitates the direct generation of variable multi-layer transparent images based on a global text prompt and an anonymous region layout. Inspired by Schema theory suggests that knowledge is organized in frameworks (schemas) that enable people to interpret and learn from new information by linking it to prior knowledge.}, this anonymous region layout allows the generative model to autonomously determine which set of visual tokens should align with which text tokens, which is in contrast to the previously dominant semantic layout for the image generation task. In addition, the layer-wise region crop mechanism, which only selects the visual tokens belonging to each anonymous region, significantly reduces attention computation costs and enables the efficient generation of images with numerous distinct layers (e.g., 50+). When compared to the full attention approach, our method is over 12 times faster and exhibits fewer layer conflicts. Furthermore, we propose a high-quality multi-layer transparent image autoencoder that supports the direct encoding and decoding of the transparency of variable multi-layer images in a joint manner. By enabling precise control and scalable layer generation, ART establishes a new paradigm for interactive content creation.
arxiv情報
著者 | Yifan Pu,Yiming Zhao,Zhicong Tang,Ruihong Yin,Haoxing Ye,Yuhui Yuan,Dong Chen,Jianmin Bao,Sirui Zhang,Yanbin Wang,Lin Liang,Lijuan Wang,Ji Li,Xiu Li,Zhouhui Lian,Gao Huang,Baining Guo |
発行日 | 2025-02-25 16:57:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google