Utilising the CLT Structure in Stochastic Gradient based Sampling : Improved Analysis and Faster Algorithms

要約

確率的勾配ランジュバン ダイナミクス (SGLD) や相互作用粒子動力学 (IPD) のランダム バッチ法 (RBM) などのサンプリング アルゴリズムの確率的近似を検討します。
確率的近似によって導入されたノイズは、中心極限定理 (CLT) によりガウスに近く、駆動ブラウン運動は正確にガウスであることがわかります。
この構造を利用して、拡散プロセス内の確率的近似誤差を吸収し、これらのアルゴリズムの収束保証を改善します。
SGLD の場合、ターゲット密度が Log-Sobolev 不等式を満たすと仮定して、一様なウォーム スタートを必要とせずに KL 発散における最初の安定した収束率を証明します。
私たちの結果は、はるかに穏やかな仮定の下で、以前の研究と比較して優れた一次オラクルの複雑さを意味します。
また、H\'{o}lder の平滑性やポアンカレの不等式などのさらに弱い条件下での SGLD の最初の保証を証明し、LMC と SGLD の最先端の保証の間のギャップを埋めます。
私たちの分析は、共分散補正と呼ばれる新しいアルゴリズムを動機付けます。これは、拡散の強度を再スケーリングすることにより、確率的近似によって導入された追加のノイズを補正します。
最後に、RBM を分析するための手法を適用し、最小限の仮定の下で、以前の作業 (地平線への指数関数的依存の削除など) の保証を大幅に改善します。

要約(オリジナル)

We consider stochastic approximations of sampling algorithms, such as Stochastic Gradient Langevin Dynamics (SGLD) and the Random Batch Method (RBM) for Interacting Particle Dynamcs (IPD). We observe that the noise introduced by the stochastic approximation is nearly Gaussian due to the Central Limit Theorem (CLT) while the driving Brownian motion is exactly Gaussian. We harness this structure to absorb the stochastic approximation error inside the diffusion process, and obtain improved convergence guarantees for these algorithms. For SGLD, we prove the first stable convergence rate in KL divergence without requiring uniform warm start, assuming the target density satisfies a Log-Sobolev Inequality. Our result implies superior first-order oracle complexity compared to prior works, under significantly milder assumptions. We also prove the first guarantees for SGLD under even weaker conditions such as H\'{o}lder smoothness and Poincare Inequality, thus bridging the gap between the state-of-the-art guarantees for LMC and SGLD. Our analysis motivates a new algorithm called covariance correction, which corrects for the additional noise introduced by the stochastic approximation by rescaling the strength of the diffusion. Finally, we apply our techniques to analyze RBM, and significantly improve upon the guarantees in prior works (such as removing exponential dependence on horizon), under minimal assumptions.

arxiv情報

著者 Aniket Das,Dheeraj Nagaraj,Anant Raj
発行日 2023-02-15 17:45:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MA, math.OC, math.PR パーマリンク