Multi-Directional Subspace Editing in Style-Space

要約

この論文では、StyleGAN の潜在空間でもつれの解けた意味方向を見つけるための新しい手法について説明します。
私たちの方法は、他の属性の望ましくない変更を最小限に抑えながら、1 つの人間の顔属性の編集を可能にする意味のある直交部分空間を識別します。
私たちのモデルは、単一の属性を複数の方向に編集できるため、さまざまな画像が生成される可能性があります。
私たちのスキームを 3 つの最先端のモデルと比較し、顔の編集ともつれの解除機能の点で私たちの方法がそれらを上回ることを示します。
さらに、属性の分離ともつれの解除を評価するための定量的な尺度を提案し、それらの尺度に関するモデルの優位性を示します。

要約(オリジナル)

This paper describes a new technique for finding disentangled semantic directions in the latent space of StyleGAN. Our method identifies meaningful orthogonal subspaces that allow editing of one human face attribute, while minimizing undesired changes in other attributes. Our model is capable of editing a single attribute in multiple directions, resulting in a range of possible generated images. We compare our scheme with three state-of-the-art models and show that our method outperforms them in terms of face editing and disentanglement capabilities. Additionally, we suggest quantitative measures for evaluating attribute separation and disentanglement, and exhibit the superiority of our model with respect to those measures.

arxiv情報

著者 Chen Naveh,Yacov Hel-Or
発行日 2023-08-21 17:11:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク