One-Line-of-Code Data Mollification Improves Optimization of Likelihood-based Generative Models

要約

生成モデル (GM) は、印象的なリアルな外観の画像を生成できるコンピューター ビジョンなど、さまざまな分野で多大な成功を収めているため、かなりの注目を集めています。
尤度ベースの GM は、単一のモデル評価によって新しいデータを生成できるため、魅力的です。
ただし、通常、最先端のスコアベースの拡散モデル (DM) と比較して、サンプルの品質は低くなります。
この文書は、この制限に対処するための重要な一歩を提供します。
このアイデアは、スコアベースの DM の強みの 1 つである、低密度領域で正確な密度推定を実行し、データ緩和によって多様体の過剰適合に対処する機能を借用することです。
ガウス ノイズをガウス ホモトピーに追加することでデータ緩和を行います。これは、最適化を改善するためのよく知られた手法です。
データ緩和は、最適化ループに 1 行のコードを追加することで実装でき、これにより、計算オーバーヘッドなしで尤度ベースの GM の生成品質が向上することを示します。
変分オートエンコーダのバリアントや正規化フローなど、一般的な尤度ベースの GM を使用した画像データセットの結果を報告し、FID スコアの大幅な改善を示しています。

要約(オリジナル)

Generative Models (GMs) have attracted considerable attention due to their tremendous success in various domains, such as computer vision where they are capable to generate impressive realistic-looking images. Likelihood-based GMs are attractive due to the possibility to generate new data by a single model evaluation. However, they typically achieve lower sample quality compared to state-of-the-art score-based diffusion models (DMs). This paper provides a significant step in the direction of addressing this limitation. The idea is to borrow one of the strengths of score-based DMs, which is the ability to perform accurate density estimation in low-density regions and to address manifold overfitting by means of data mollification. We connect data mollification through the addition of Gaussian noise to Gaussian homotopy, which is a well-known technique to improve optimization. Data mollification can be implemented by adding one line of code in the optimization loop, and we demonstrate that this provides a boost in generation quality of likelihood-based GMs, without computational overheads. We report results on image data sets with popular likelihood-based GMs, including variants of variational autoencoders and normalizing flows, showing large improvements in FID score.

arxiv情報

著者 Ba-Hien Tran,Giulio Franzese,Pietro Michiardi,Maurizio Filippone
発行日 2023-12-21 18:22:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク