Exploring and Exploiting Hubness Priors for High-Quality GAN Latent Sampling

要約

生成的敵対的ネットワーク(GAN)に関する広範な研究にもかかわらず、潜在空間から高品質の画像を確実にサンプリングする方法は、未踏のトピックのままです。
本論文では、GAN潜在分布のハブネス事前分布を調査し、活用することにより、新しいGAN潜在サンプリング法を提案します。
私たちの重要な洞察は、GAN潜在空間の高次元性は、必然的に、潜在空間内の他の潜在空間よりもはるかに大きなサンプリング密度を持つハブ潜在空間の出現につながるということです。
結果として、これらのハブ潜伏はよりよく訓練され、したがって高品質の画像の合成にさらに貢献します。
後部の「チェリーピッキング」とは異なり、私たちの方法は、画像を合成する前に高品質の潜在性を識別する先験的な方法であるため、非常に効率的です。
さらに、よく知られているが純粋に経験的な切り捨てトリックは、ハブ潜在性の中央クラスタリング効果の素朴な近似であり、切り捨てトリックの理論的根拠を明らかにするだけでなく、私たちの方法の優位性と基本性も示します。
広範な実験結果は、提案された方法の有効性を示しています。

要約(オリジナル)

Despite the extensive studies on Generative Adversarial Networks (GANs), how to reliably sample high-quality images from their latent spaces remains an under-explored topic. In this paper, we propose a novel GAN latent sampling method by exploring and exploiting the hubness priors of GAN latent distributions. Our key insight is that the high dimensionality of the GAN latent space will inevitably lead to the emergence of hub latents that usually have much larger sampling densities than other latents in the latent space. As a result, these hub latents are better trained and thus contribute more to the synthesis of high-quality images. Unlike the a posterior ‘cherry-picking’, our method is highly efficient as it is an a priori method that identifies high-quality latents before the synthesis of images. Furthermore, we show that the well-known but purely empirical truncation trick is a naive approximation to the central clustering effect of hub latents, which not only uncovers the rationale of the truncation trick, but also indicates the superiority and fundamentality of our method. Extensive experimental results demonstrate the effectiveness of the proposed method.

arxiv情報

著者 Yuanbang Liang,Jing Wu,Yu-Kun Lai,Yipeng Qin
発行日 2022-06-13 10:13:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク