Towards Vision-Language-Garment Models For Web Knowledge Garment Understanding and Generation

要約

マルチモーダルファンデーションモデルは強力な一般化を実証していますが、衣服の生成などの専門的なドメインに知識を移転する能力は未定です。
テキストの説明と視覚的な画像からの衣服を合成するビジョン言語学モデルであるVLGを紹介します。
私たちの実験は、VLGのゼロショット一般化を評価し、Webスケールの推論を目に見えない衣服のスタイルとプロンプトに転送する能力を調査します。
予備的な結果は、有望な転送能力を示しており、マルチモーダルファンデーションモデルがファッションデザインなどの特殊なドメインに効果的に適応する可能性を強調しています。

要約(オリジナル)

Multimodal foundation models have demonstrated strong generalization, yet their ability to transfer knowledge to specialized domains such as garment generation remains underexplored. We introduce VLG, a vision-language-garment model that synthesizes garments from textual descriptions and visual imagery. Our experiments assess VLG’s zero-shot generalization, investigating its ability to transfer web-scale reasoning to unseen garment styles and prompts. Preliminary results indicate promising transfer capabilities, highlighting the potential for multimodal foundation models to adapt effectively to specialized domains like fashion design.

arxiv情報

著者 Jan Ackermann,Kiyohiro Nakayama,Guandao Yang,Tong Wu,Gordon Wetzstein
発行日 2025-06-05 16:22:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク