要約
マルチモーダルファンデーションモデルは強力な一般化を実証していますが、衣服の生成などの専門的なドメインに知識を移転する能力は未定です。
テキストの説明と視覚的な画像からの衣服を合成するビジョン言語学モデルであるVLGを紹介します。
私たちの実験は、VLGのゼロショット一般化を評価し、Webスケールの推論を目に見えない衣服のスタイルとプロンプトに転送する能力を調査します。
予備的な結果は、有望な転送能力を示しており、マルチモーダルファンデーションモデルがファッションデザインなどの特殊なドメインに効果的に適応する可能性を強調しています。
要約(オリジナル)
Multimodal foundation models have demonstrated strong generalization, yet their ability to transfer knowledge to specialized domains such as garment generation remains underexplored. We introduce VLG, a vision-language-garment model that synthesizes garments from textual descriptions and visual imagery. Our experiments assess VLG’s zero-shot generalization, investigating its ability to transfer web-scale reasoning to unseen garment styles and prompts. Preliminary results indicate promising transfer capabilities, highlighting the potential for multimodal foundation models to adapt effectively to specialized domains like fashion design.
arxiv情報
| 著者 | Jan Ackermann,Kiyohiro Nakayama,Guandao Yang,Tong Wu,Gordon Wetzstein |
| 発行日 | 2025-06-05 16:22:17+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google