Particle-based Variational Inference with Preconditioned Functional Gradient Flow

要約

タイトル: 粒子ベースの事前条件付き機能勾配流による変分推論
要約:
– 粒子ベースの変分推論(VI)は、勾配流推定により、モデルサンプルとターゲット事後分布のKLダイバージェンスを最小化するものである。
– 粒子ベースのVIアルゴリズムは、再生核ヒルベルト空間(RKHS)の関数の特性に焦点を当てることで、Stein変分勾配降下(SVGD)の人気によって発展してきた。
– しかし、RKHSの要件は関数クラスとアルゴリズムの柔軟性を制限する。これを解決するために、RKHSノルムを特殊な場合として含む機能的な正則化項を導入することで、この論文は一般的な解決策を提供している。
– これにより、新しい粒子ベースのVIアルゴリズム、事前条件付き機能勾配流(PFG)を提案することができる。PFGはSVGDよりもいくつかの利点がある。より大きな機能クラス、大規模な粒子サイズの場合における改善された拡張性、不良条件分布への適応力の向上、KLダイバージェンスにおける証明された連続時間収束性がある。
– 加えて、ニューラルネットワークなどの非線形関数クラスを用いて勾配流を推定することができる。論文の理論と実験は、提案されたフレームワークの有効性を示している。

要約(オリジナル)

Particle-based variational inference (VI) minimizes the KL divergence between model samples and the target posterior with gradient flow estimates. With the popularity of Stein variational gradient descent (SVGD), the focus of particle-based VI algorithms has been on the properties of functions in Reproducing Kernel Hilbert Space (RKHS) to approximate the gradient flow. However, the requirement of RKHS restricts the function class and algorithmic flexibility. This paper offers a general solution to this problem by introducing a functional regularization term that encompasses the RKHS norm as a special case. This allows us to propose a new particle-based VI algorithm called preconditioned functional gradient flow (PFG). Compared to SVGD, PFG has several advantages. It has a larger function class, improved scalability in large particle-size scenarios, better adaptation to ill-conditioned distributions, and provable continuous-time convergence in KL divergence. Additionally, non-linear function classes such as neural networks can be incorporated to estimate the gradient flow. Our theory and experiments demonstrate the effectiveness of the proposed framework.

arxiv情報

著者 Hanze Dong,Xi Wang,Yong Lin,Tong Zhang
発行日 2023-04-18 07:58:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク