要約
テキストから画像への生成の研究では、さまざまな研究が幅広く研究されています。
既存のモデルはテキストから画像への生成では良好に機能しますが、ダイアログ内で画像を生成するためにそれらを直接使用する場合には大きな課題があります。
この論文では、まず、ダイアログから画像への生成という新しい問題に焦点を当てます。つまり、ダイアログのコンテキストが与えられると、モデルは応答として指定された会話と一致するリアルな画像を生成する必要があります。
この問題に取り組むために、中間翻訳を行わずにダイアログから画像を生成する効率的なアプローチを提案します。これにより、ダイアログに含まれる意味情報の抽出が最大化されます。
対話構造の特性を考慮して、異なる話者を区別するために、対話の各文の前にセグメント トークンを置きます。
次に、事前トレーニングされたテキストから画像へのモデルを微調整して、処理されたダイアログ コンテキストに応じて画像を生成できるようにします。
微調整後、私たちのアプローチにより、複数のメトリクスにわたってさまざまなモデルのパフォーマンスを一貫して向上させることができます。
公開ベンチマークでの実験結果は、私たちの方法の有効性と実用性を示しています。
要約(オリジナル)
Various works have been extensively studied in the research of text-to-image generation. Although existing models perform well in text-to-image generation, there are significant challenges when directly employing them to generate images in dialogs. In this paper, we first highlight a new problem: dialog-to-image generation, that is, given the dialog context, the model should generate a realistic image which is consistent with the specified conversation as response. To tackle the problem, we propose an efficient approach for dialog-to-image generation without any intermediate translation, which maximizes the extraction of the semantic information contained in the dialog. Considering the characteristics of dialog structure, we put segment token before each sentence in a turn of a dialog to differentiate different speakers. Then, we fine-tune pre-trained text-to-image models to enable them to generate images conditioning on processed dialog context. After fine-tuning, our approach can consistently improve the performance of various models across multiple metrics. Experimental results on public benchmark demonstrate the effectiveness and practicability of our method.
arxiv情報
著者 | Xiaowen Sun,Jiazhan Feng,Yuxuan Wang,Yuxuan Lai,Xingyu Shen,Dongyan Zhao |
発行日 | 2023-09-27 09:33:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google