Differential-Critic GAN: Generating What You Want by a Cue of Preferences

要約

タイトル: Differential-Critic GAN:嗜好に基づくものを生成する方法

要約:

– DiCGANは、望ましい特性を持つデータが全データセットに存在せず、部分的にしか存在しない場合でも、ユーザーの望むデータの分布を学習するための手法である。
– DiCGANは、望ましいデータを生成し、生物学的製品の設計を支援することができる。
– 既存の手法は、まず望ましいサンプルを選択し、選択されたサンプルで通常のGANを訓練してユーザーが望むデータの分布を導き出す。しかし、望ましいデータの選択は全体のデータセットに対するグローバルな知識と監督に依存する。
– DiCGANは、ペアワイズの嗜好によって学習する差分クリティックを導入し、部分的なトレーニングデータに定義できるローカルな知識を活用する。この差分クリティックは、Wasserstein GANのクリティックに追加の順位損失を定義して構築される。これにより、各ペアのクリティック値の差がユーザーの嗜好を表現するようにし、必要なデータの生成を指導する。
– データ品質を確保するためのより効率的な解決策を提供するために、DiCGANを制約最適化問題として再定式化し、DiCGANの収束を理論的に証明する。
– 多様なデータセットとアプリケーションでの広範な実験により、DiCGANがユーザーが望むデータの分布を学習する際に、不十分な望ましいデータや限られた監視の場合でも、最先端の性能を発揮することが示された。

要約(オリジナル)

This paper proposes Differential-Critic Generative Adversarial Network (DiCGAN) to learn the distribution of user-desired data when only partial instead of the entire dataset possesses the desired property. DiCGAN generates desired data that meets the user’s expectations and can assist in designing biological products with desired properties. Existing approaches select the desired samples first and train regular GANs on the selected samples to derive the user-desired data distribution. However, the selection of the desired data relies on global knowledge and supervision over the entire dataset. DiCGAN introduces a differential critic that learns from pairwise preferences, which are local knowledge and can be defined on a part of training data. The critic is built by defining an additional ranking loss over the Wasserstein GAN’s critic. It endows the difference of critic values between each pair of samples with the user preference and guides the generation of the desired data instead of the whole data. For a more efficient solution to ensure data quality, we further reformulate DiCGAN as a constrained optimization problem, based on which we theoretically prove the convergence of our DiCGAN. Extensive experiments on a diverse set of datasets with various applications demonstrate that our DiCGAN achieves state-of-the-art performance in learning the user-desired data distributions, especially in the cases of insufficient desired data and limited supervision.

arxiv情報

著者 Yinghua Yao,Yuangang Pan,Ivor W. Tsang,Xin Yao
発行日 2023-04-17 02:23:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク