LDGen: Enhancing Text-to-Image Synthesis via Large Language Model-Driven Language Representation

要約

この論文では、計算需要を最小限に抑えながら、既存のテキストから画像間拡散モデルに大規模な言語モデル(LLM)を統合するための新しい方法であるLDGENを紹介します。
ClipやT5などの従来のテキストエンコーダーは、多言語処理の制限を示し、多様な言語全体の画像生成を妨げます。
LLMSの高度な機能を活用することにより、これらの課題に対処します。
私たちのアプローチは、階層的なキャプションの最適化と人間の指導手法を適用して、正確な意味情報を導き出す言語表現戦略を採用しています。
その後、LLMSと画像機能の間の効率的な機能のアラインメントと相互作用を容易にするために、軽量アダプターとクロスモーダルリファイナーを組み込みます。
LDGENはトレーニング時間を短縮し、ゼロショット多言語画像生成を可能にします。
実験結果は、私たちの方法が、迅速な順守と画像の美的品質の両方でベースラインモデルを上回り、複数の言語をシームレスにサポートすることを示しています。
プロジェクトページ:https://zrealli.github.io/ldgen。

要約(オリジナル)

In this paper, we introduce LDGen, a novel method for integrating large language models (LLMs) into existing text-to-image diffusion models while minimizing computational demands. Traditional text encoders, such as CLIP and T5, exhibit limitations in multilingual processing, hindering image generation across diverse languages. We address these challenges by leveraging the advanced capabilities of LLMs. Our approach employs a language representation strategy that applies hierarchical caption optimization and human instruction techniques to derive precise semantic information,. Subsequently, we incorporate a lightweight adapter and a cross-modal refiner to facilitate efficient feature alignment and interaction between LLMs and image features. LDGen reduces training time and enables zero-shot multilingual image generation. Experimental results indicate that our method surpasses baseline models in both prompt adherence and image aesthetic quality, while seamlessly supporting multiple languages. Project page: https://zrealli.github.io/LDGen.

arxiv情報

著者 Pengzhi Li,Pengfei Yu,Zide Liu,Wei He,Xuhao Pan,Xudong Rao,Tao Wei,Wei Chen
発行日 2025-02-25 15:42:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク