要約
幅広い用途があるため、人にとらわれない顔交換のタスクに対して多くの試みがなされてきました。
既存の方法は、ほとんどが退屈なネットワークと損失の設計に依存していますが、ソースとターゲットの面の間で情報のバランスをとるのにまだ苦労しており、目に見えるアーティファクトを生成する傾向があります.
この作業では、StyleSwap という名前の簡潔で効果的なフレームワークを紹介します。
私たちの中心的なアイデアは、スタイルベースのジェネレーターを活用して、忠実度の高い堅牢な顔の交換を強化することです。したがって、ジェネレーターの利点を採用して、アイデンティティの類似性を最適化できます。
StyleGAN2 アーキテクチャは、最小限の変更を加えるだけで、ソースとターゲットの両方から必要な情報を正常に処理できることがわかりました。
さらに、ToRGB レイヤーに着想を得て、情報ブレンディングを改善するために、スワッピング駆動のマスク ブランチがさらに考案されました。
さらに、StyleGAN反転の利点を採用することができます。
特に、同一性の類似性を最適化するために、スワッピング ガイド付き ID 反転戦略が提案されています。
広範な実験により、私たちのフレームワークが質的にも量的にも最先端の方法よりも優れた高品質の顔交換結果を生成することが検証されています。
要約(オリジナル)
Numerous attempts have been made to the task of person-agnostic face swapping given its wide applications. While existing methods mostly rely on tedious network and loss designs, they still struggle in the information balancing between the source and target faces, and tend to produce visible artifacts. In this work, we introduce a concise and effective framework named StyleSwap. Our core idea is to leverage a style-based generator to empower high-fidelity and robust face swapping, thus the generator’s advantage can be adopted for optimizing identity similarity. We identify that with only minimal modifications, a StyleGAN2 architecture can successfully handle the desired information from both source and target. Additionally, inspired by the ToRGB layers, a Swapping-Driven Mask Branch is further devised to improve information blending. Furthermore, the advantage of StyleGAN inversion can be adopted. Particularly, a Swapping-Guided ID Inversion strategy is proposed to optimize identity similarity. Extensive experiments validate that our framework generates high-quality face swapping results that outperform state-of-the-art methods both qualitatively and quantitatively.
arxiv情報
著者 | Zhiliang Xu,Hang Zhou,Zhibin Hong,Ziwei Liu,Jiaming Liu,Zhizhi Guo,Junyu Han,Jingtuo Liu,Errui Ding,Jingdong Wang |
発行日 | 2022-09-27 16:35:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google