A noise-corrected Langevin algorithm and sampling by half-denoising

要約

Langevinアルゴリズムは、特定のPDFから実際の空間でサンプリングするための典型的な方法です。
基本バージョンでは、スコア関数とも呼ばれるログ密度の勾配に関する知識のみが必要です。
ただし、ディープラーニングでは、いわゆる「ノイズ型ダタスコア関数」、つまりノイズの多いデータのログ密度の勾配を学習する方が簡単なことがよくあります。
このような推定値は偏っており、ランジュビン法の使用を複雑にします。
ここでは、少なくとも1次用語に関しては、ノイズの多いデータによるバイアスが削除されるLangevinアルゴリズムのノイズ補正バージョンを提案します。
拡散モデルとは異なり、私たちのアルゴリズムは、1つのノイズレベルのみでノイズスコア関数を知る必要があります。
さらに、データを繰り返し追加し、そのノイズの半分を削除しようとするという反復的に直感的な解釈がある簡単な特別なケースを提案します。

要約(オリジナル)

The Langevin algorithm is a classic method for sampling from a given pdf in a real space. In its basic version, it only requires knowledge of the gradient of the log-density, also called the score function. However, in deep learning, it is often easier to learn the so-called ‘noisy-data score function’, i.e. the gradient of the log-density of noisy data, more precisely when Gaussian noise is added to the data. Such an estimate is biased and complicates the use of the Langevin method. Here, we propose a noise-corrected version of the Langevin algorithm, where the bias due to noisy data is removed, at least regarding first-order terms. Unlike diffusion models, our algorithm needs to know the noisy score function for one single noise level only. We further propose a simple special case which has an interesting intuitive interpretation of iteratively adding noise the data and then attempting to remove half of that noise.

arxiv情報

著者 Aapo Hyvärinen
発行日 2025-04-11 12:46:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク