Hacking Generative Models with Differentiable Network Bending

要約

この研究では、生成モデルを「ハッキング」し、その出力を元のトレーニング分布から新しい目的に向けて押し出す方法を提案します。
モデルの中間層の間に小規模なトレーニング可能なモジュールを挿入し、少ない反復回数でトレーニングし、ネットワークの残りの部分をフリーズしたままにします。
結果として得られる出力画像は、芸術的な目的に利用できる、元の目的と新しい目的の間の緊張によって与えられる、驚異的な品質を示します。

要約(オリジナル)

In this work, we propose a method to ‘hack’ generative models, pushing their outputs away from the original training distribution towards a new objective. We inject a small-scale trainable module between the intermediate layers of the model and train it for a low number of iterations, keeping the rest of the network frozen. The resulting output images display an uncanny quality, given by the tension between the original and new objectives that can be exploited for artistic purposes.

arxiv情報

著者 Giacomo Aldegheri,Alina Rogalska,Ahmed Youssef,Eugenia Iofinova
発行日 2023-12-12 13:06:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, I.2.10 パーマリンク