Diff-Font: Diffusion Model for Robust One-Shot Font Generation

要約

タイトル:Diff-Font: ロバストなワンショットフォント生成のための拡散モデル

要約:
– フォント生成は、特に複雑な構造を持つ表意文字を使用する言語(例えば中国語)において、困難で時間のかかる課題である。
– この問題を解決するため、フォントを少数のサンプルから生成するfew-shotフォント生成や、1つのサンプルから生成するone-shotフォント生成が注目されている。
– しかし、ほとんどの既存のフォント生成方法は、(i)フォント間の大きなギャップ課題、(ii)微妙なフォント間のバリエーション問題、(iii)複雑な文字の不正確な生成などの問題がある。
– 本研究では、大規模なデータセットで安定的に学習できる拡散モデルに基づく新しいone-shotフォント生成方法、Diff-Fontを提案する。
– 提案されたモデルは、1つのサンプルを参照として、フォントライブラリ全体を生成することを目的としている。
– 具体的には、大規模なストローク単位のデータセットが構築され、ストローク単位の拡散モデルが提案され、各生成された文字の構造と完了を保存するようにしている。
– 提案されたDiff-Fontは、フォント間のギャップやバリエーションに堅牢であり、複雑な文字の生成にも成功している。従来のフォント生成方法と比較して、本モデルは定量的・定性的に優れたパフォーマンスを発揮している。
– 提案されたDiff-Fontは、フォント生成タスクを扱うために拡散モデルを開発した最初の研究である。

要約(オリジナル)

Font generation is a difficult and time-consuming task, especially in those languages using ideograms that have complicated structures with a large number of characters, such as Chinese. To solve this problem, few-shot font generation and even one-shot font generation have attracted a lot of attention. However, most existing font generation methods may still suffer from (i) large cross-font gap challenge; (ii) subtle cross-font variation problem; and (iii) incorrect generation of complicated characters. In this paper, we propose a novel one-shot font generation method based on a diffusion model, named Diff-Font, which can be stably trained on large datasets. The proposed model aims to generate the entire font library by giving only one sample as the reference. Specifically, a large stroke-wise dataset is constructed, and a stroke-wise diffusion model is proposed to preserve the structure and the completion of each generated character. To our best knowledge, the proposed Diff-Font is the first work that developed diffusion models to handle the font generation task. The well-trained Diff-Font is not only robust to font gap and font variation, but also achieved promising performance on difficult character generation. Compared to previous font generation methods, our model reaches state-of-the-art performance both qualitatively and quantitatively.

arxiv情報

著者 Haibin He,Xinyuan Chen,Chaoyue Wang,Juhua Liu,Bo Du,Dacheng Tao,Yu Qiao
発行日 2023-05-07 15:37:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク