Controlling the Latent Space of GANs through Reinforcement Learning: A Case Study on Task-based Image-to-Image Translation

要約

Generative Adversarial Networks (GAN) は、トレーニング データセットに基づいて現実的な出力を生成する強力な AI ツールとして登場しました。
ただし、GAN の生成プロセスを制御するという課題は、依然として大きなハードルとなっています。
この論文では、強化学習 (RL) エージェントと潜在空間 GAN (l-GAN) を統合することで、この問題に対処し、それによって望ましい出力の生成を容易にする新しい方法論を提案します。
より具体的には、綿密に設計された報酬ポリシーを備えたアクター批判型 RL エージェントを開発しました。これにより、l-GAN の潜在空間をナビゲートし、指定されたタスクに基づいて出力を生成する能力を獲得できるようになります。
私たちのアプローチの有効性を実証するために、説明的なタスクとして算術加算を含む、MNIST データセットを使用した一連の実験を実施しました。
これらの実験の結果は、私たちの方法論を検証するのに役立ちます。
RL エージェントと GAN モデルの先駆的な統合は新たな進歩を表しており、将来の生成ネットワークを強化する大きな可能性を秘めています。

要約(オリジナル)

Generative Adversarial Networks (GAN) have emerged as a formidable AI tool to generate realistic outputs based on training datasets. However, the challenge of exerting control over the generation process of GANs remains a significant hurdle. In this paper, we propose a novel methodology to address this issue by integrating a reinforcement learning (RL) agent with a latent-space GAN (l-GAN), thereby facilitating the generation of desired outputs. More specifically, we have developed an actor-critic RL agent with a meticulously designed reward policy, enabling it to acquire proficiency in navigating the latent space of the l-GAN and generating outputs based on specified tasks. To substantiate the efficacy of our approach, we have conducted a series of experiments employing the MNIST dataset, including arithmetic addition as an illustrative task. The outcomes of these experiments serve to validate our methodology. Our pioneering integration of an RL agent with a GAN model represents a novel advancement, holding great potential for enhancing generative networks in the future.

arxiv情報

著者 Mahyar Abbasian,Taha Rajabzadeh,Ahmadreza Moradipari,Seyed Amir Hossein Aqajari,Hongsheng Lu,Amir Rahmani
発行日 2023-07-26 06:34:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク