Wear-Any-Way: Manipulable Virtual Try-on via Sparse Correspondence Alignment

要約

この文書では、Wear-Any-Way と呼ばれる、仮想試着のための新しいフレームワークを紹介します。
以前の方法とは異なり、Wear-Any-Way はカスタマイズ可能なソリューションです。
私たちの方法は、忠実度の高い結果を生成するだけでなく、ユーザーが着用スタイルを正確に操作できるようにサポートします。
この目標を達成するために、私たちはまず標準的な仮想試着のための強力なパイプラインを構築し、単一または複数の衣類の試着と複雑なシナリオでのモデル間の設定をサポートします。
これを操作可能にするために、特定の位置の生成をガイドするポイントベースの制御を含む疎対応アライメントを提案します。
このデザインにより、Wear-Any-Way は標準設定で最先端のパフォーマンスを実現し、着用スタイルをカスタマイズするための新しいインタラクション フォームを提供します。
例えば、袖をドラッグしてロールアップしたり、コートをドラッグして開いたり、クリック操作でタックのスタイルをコントロールするなど、より自由で柔軟な装いの表現をサポートします。
、ファッション業界に深い影響を及ぼします。

要約(オリジナル)

This paper introduces a novel framework for virtual try-on, termed Wear-Any-Way. Different from previous methods, Wear-Any-Way is a customizable solution. Besides generating high-fidelity results, our method supports users to precisely manipulate the wearing style. To achieve this goal, we first construct a strong pipeline for standard virtual try-on, supporting single/multiple garment try-on and model-to-model settings in complicated scenarios. To make it manipulable, we propose sparse correspondence alignment which involves point-based control to guide the generation for specific locations. With this design, Wear-Any-Way gets state-of-the-art performance for the standard setting and provides a novel interaction form for customizing the wearing style. For instance, it supports users to drag the sleeve to make it rolled up, drag the coat to make it open, and utilize clicks to control the style of tuck, etc. Wear-Any-Way enables more liberated and flexible expressions of the attires, holding profound implications in the fashion industry.

arxiv情報

著者 Mengting Chen,Xi Chen,Zhonghua Zhai,Chen Ju,Xuewen Hong,Jinsong Lan,Shuai Xiao
発行日 2024-03-19 17:59:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク