要約
画像ベースの仮想試着は、衣料品の外観を対象者の画像に転写することを目的としています。
以前の仕事は主に上半身の服(Tシャツ、シャツ、トップスなど)に焦点を当てており、全身または下半身のアイテムを無視しています。
この欠点は主な要因から生じます。画像ベースの仮想試着用に現在公開されているデータセットはこの多様性を考慮していないため、この分野での進歩が制限されています。
この欠陥に対処するために、マルチカテゴリの服の画像を含むドレスコードを導入します。
ドレスコードは、画像ベースの仮想試着用に公開されているデータセットの3倍以上の大きさであり、正面図の全身参照モデルを備えた高解像度のペア画像(1024×768)を備えています。
高画質でディテールに富んだHD試着画像を生成するために、きめ細かい識別機能を学習することを提案します。
具体的には、画像レベルやパッチレベルではなく、ピクセルレベルで予測を行うセマンティック対応のディスクリミネーターを活用します。
広範な実験的評価は、提案されたアプローチが、視覚的品質と定量的結果の点でベースラインと最先端の競合他社を上回っていることを示しています。
ドレスコードデータセットは、https://github.com/aimagelab/dress-codeで公開されています。
要約(オリジナル)
Image-based virtual try-on strives to transfer the appearance of a clothing item onto the image of a target person. Prior work focuses mainly on upper-body clothes (e.g. t-shirts, shirts, and tops) and neglects full-body or lower-body items. This shortcoming arises from a main factor: current publicly available datasets for image-based virtual try-on do not account for this variety, thus limiting progress in the field. To address this deficiency, we introduce Dress Code, which contains images of multi-category clothes. Dress Code is more than 3x larger than publicly available datasets for image-based virtual try-on and features high-resolution paired images (1024×768) with front-view, full-body reference models. To generate HD try-on images with high visual quality and rich in details, we propose to learn fine-grained discriminating features. Specifically, we leverage a semantic-aware discriminator that makes predictions at pixel-level instead of image- or patch-level. Extensive experimental evaluation demonstrates that the proposed approach surpasses the baselines and state-of-the-art competitors in terms of visual quality and quantitative results. The Dress Code dataset is publicly available at https://github.com/aimagelab/dress-code.
arxiv情報
著者 | Davide Morelli,Matteo Fincato,Marcella Cornia,Federico Landi,Fabio Cesari,Rita Cucchiara |
発行日 | 2022-07-13 12:47:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google