Quantum Speedups for Markov Chain Monte Carlo Methods with Application to Optimization

要約

我々は、ポテンシャル関数を$f$とする確率分布からのサンプリングによく用いられるマルコフ連鎖モンテカルロ法(MCMC)に対して、証明可能な高速化をもたらす量子アルゴリズムを提案する。我々の最初のアプローチは、確率的設定における有限和ポテンシャルに対するギブスサンプリングを考察するもので、個々の関数の勾配を提供するオラクルを用いる。2つ目のアプローチでは、確率的評価オラクルへのアクセスのみを考慮し、同じ確率パラメータの下で、ポテンシャル関数の2点への同時問い合わせを可能にする。確率的勾配推定に新しい手法を導入することにより、我々のアルゴリズムは、ハミルトニアンモンテカルロ(HMC)やランジュバンモンテカルロ(LMC)のような古典的サンプラーの勾配と評価の複雑さを、次元、精度、その他問題に依存するパラメータの観点から改善する。さらに、最適化、特に経験的リスク最小化問題によく現れる非平滑関数や近似凸関数の最小化において、量子的な高速化を達成した。

要約(オリジナル)

We propose quantum algorithms that provide provable speedups for Markov Chain Monte Carlo (MCMC) methods commonly used for sampling from probability distributions of the form $\pi \propto e^{-f}$, where $f$ is a potential function. Our first approach considers Gibbs sampling for finite-sum potentials in the stochastic setting, employing an oracle that provides gradients of individual functions. In the second setting, we consider access only to a stochastic evaluation oracle, allowing simultaneous queries at two points of the potential function under the same stochastic parameter. By introducing novel techniques for stochastic gradient estimation, our algorithms improve the gradient and evaluation complexities of classical samplers, such as Hamiltonian Monte Carlo (HMC) and Langevin Monte Carlo (LMC) in terms of dimension, precision, and other problem-dependent parameters. Furthermore, we achieve quantum speedups in optimization, particularly for minimizing non-smooth and approximately convex functions that commonly appear in empirical risk minimization problems.

arxiv情報

著者 Guneykan Ozgul,Xiantao Li,Mehrdad Mahdavi,Chunhao Wang
発行日 2025-04-04 17:44:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, math.OC, quant-ph パーマリンク