Provably Fast Finite Particle Variants of SVGD via Virtual Particle Stochastic Approximation

要約

Stein 変分勾配降下法 (SVGD) は、相互作用する粒子システムをシミュレートしてターゲット分布から近似的にサンプリングする一般的な変分推論アルゴリズムであり、さまざまな領域にわたって優れた経験的パフォーマンスを発揮します。
理論的には、その集団 (つまり、無限粒子) の限界ダイナミクスはよく研究されていますが、有限粒子領域における SVGD の挙動はあまり理解されていません。
この研究では、計算効率が高い SVGD の 2 つのバリアント、つまり VP-SVGD と GB-SVGD を設計し、有限粒子の収束速度が速いことが証明されています。
我々は仮想粒子の概念を導入し、確率尺度の空間における集団限界SVGDダイナミクスの新しい確率的近似を開発します。これは有限数の粒子を使用して正確に実装可能です。
私たちのアルゴリズムは、SVGD の特定のランダム バッチ近似とみなすことができ、通常の SVGD よりも計算効率が高くなります。
バッチサイズ $K$ で $T$ ステップ実行した VP-SVGD および GB-SVGD によって出力された $n$ 粒子は、カーネル スタインの不一致が分布からの i.i.d サンプルと少なくとも同等であることを示します。
標準的な仮定の下では、ターゲットは最大 $O\left(\tfrac{d^{1/3}}{(KT)^{1/6}}\right)$ です。
我々の結果は、以前の研究で一般に考慮されていた等周関数(例: ポアンカレ不等式) や情報伝達条件(例: タラグランの不等式 $\mathsf{T}_1$) よりもはるかに弱いポテンシャル関数の穏やかな成長条件下でも成立します。
当然の結果として、(VP-SVGD および GB-SVGD によって出力された粒子の) 経験的測定の目標分布への収束を考慮し、最もよく知られている SVGD の有限粒子解析と比較して 2 倍の指数関数的な改善を実証します。
これを超えて、私たちの結果は、多項式次元依存性を伴うこの設定における最初の既知のオラクルの複雑さを示しています。

要約(オリジナル)

Stein Variational Gradient Descent (SVGD) is a popular variational inference algorithm which simulates an interacting particle system to approximately sample from a target distribution, with impressive empirical performance across various domains. Theoretically, its population (i.e, infinite-particle) limit dynamics is well studied but the behavior of SVGD in the finite-particle regime is much less understood. In this work, we design two computationally efficient variants of SVGD, namely VP-SVGD and GB-SVGD, with provably fast finite-particle convergence rates. We introduce the notion of virtual particles and develop novel stochastic approximations of population-limit SVGD dynamics in the space of probability measures, which are exactly implementable using a finite number of particles. Our algorithms can be viewed as specific random-batch approximations of SVGD, which are computationally more efficient than ordinary SVGD. We show that the $n$ particles output by VP-SVGD and GB-SVGD, run for $T$ steps with batch-size $K$, are at-least as good as i.i.d samples from a distribution whose Kernel Stein Discrepancy to the target is at most $O\left(\tfrac{d^{1/3}}{(KT)^{1/6}}\right)$ under standard assumptions. Our results also hold under a mild growth condition on the potential function, which is much weaker than the isoperimetric (e.g. Poincare Inequality) or information-transport conditions (e.g. Talagrand’s Inequality $\mathsf{T}_1$) generally considered in prior works. As a corollary, we consider the convergence of the empirical measure (of the particles output by VP-SVGD and GB-SVGD) to the target distribution and demonstrate a double exponential improvement over the best known finite-particle analysis of SVGD. Beyond this, our results present the first known oracle complexities for this setting with polynomial dimension dependence.

arxiv情報

著者 Aniket Das,Dheeraj Nagaraj
発行日 2023-09-22 15:07:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH パーマリンク