要約
ベクター グラフィックスはデジタル アートで広く使用されており、そのスケーラビリティとレイヤーごとのトポロジ特性がデザイナーによって高く評価されています。
ただし、ベクター グラフィックの作成と編集には創造性とデザインの専門知識が必要であり、時間がかかるプロセスになります。
この論文では、特定のサンプル SVG のプロパティとレイヤーごとの情報を保持しながら、テキスト プロンプトに基づいて高品質のカスタマイズされたベクター グラフィックスを生成する新しいパイプラインを提案します。
私たちの方法は、事前にトレーニングされた大規模なテキストから画像へのモデルの機能を利用します。
モデルのクロスアテンション レイヤーを微調整することで、テキスト プロンプトに従ってカスタマイズされたラスター イメージを生成します。
SVG を初期化するために、見本 SVG からの重要なパスを保存および変換する、セマンティックベースのパス調整方法を導入します。
さらに、画像レベルとベクトルレベルの両方の損失を使用してパスパラメータを最適化し、カスタマイズされたラスター画像と位置合わせしながら滑らかな形状変形を保証します。
私たちは、ベクトルレベル、画像レベル、テキストレベルの観点から複数のメトリクスを使用してメソッドを広範囲に評価します。
評価結果は、ベクター グラフィックスの多様なカスタマイズを優れた品質で生成する際の当社のパイプラインの有効性を示しています。
プロジェクト ページは https://intchous.github.io/SVGCustomization です。
要約(オリジナル)
Vector graphics are widely used in digital art and valued by designers for their scalability and layer-wise topological properties. However, the creation and editing of vector graphics necessitate creativity and design expertise, leading to a time-consuming process. In this paper, we propose a novel pipeline that generates high-quality customized vector graphics based on textual prompts while preserving the properties and layer-wise information of a given exemplar SVG. Our method harnesses the capabilities of large pre-trained text-to-image models. By fine-tuning the cross-attention layers of the model, we generate customized raster images guided by textual prompts. To initialize the SVG, we introduce a semantic-based path alignment method that preserves and transforms crucial paths from the exemplar SVG. Additionally, we optimize path parameters using both image-level and vector-level losses, ensuring smooth shape deformation while aligning with the customized raster image. We extensively evaluate our method using multiple metrics from vector-level, image-level, and text-level perspectives. The evaluation results demonstrate the effectiveness of our pipeline in generating diverse customizations of vector graphics with exceptional quality. The project page is https://intchous.github.io/SVGCustomization.
arxiv情報
著者 | Peiying Zhang,Nanxuan Zhao,Jing Liao |
発行日 | 2023-09-21 17:59:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google