Stacking Variational Bayesian Monte Carlo

要約

変分状ベイジアンモンテカルロ(VBMC)は、計算上の高価な尤度を備えた近似ベイジアン推論のためのサンプル効率の良い方法です。
VBMCのローカル代理アプローチは安定した近似を提供しますが、その保守的な探査戦略と限られた評価予算により、複雑な事後の地域を見逃す可能性があります。
この作業では、スタッキングバイエーションベイジアンモンテカルロ(S-VBMC)を紹介します。これは、独立したVBMCをマージすることによりグローバルな後方近似を構築する方法を導入します。
私たちのアプローチは、VBMCの混合後の表現とコンポーネントごとの証拠の推定を活用しており、自然に平行化可能である間、追加の尤度評価を必要としません。
VBMCの探査能力と計算神経科学からの2つの実際のアプリケーションに挑戦するように設計された2つの合成問題に対するS-VBMCの有効性を示し、すべてのケースで後部近似品質の大幅な改善を示しています。

要約(オリジナル)

Variational Bayesian Monte Carlo (VBMC) is a sample-efficient method for approximate Bayesian inference with computationally expensive likelihoods. While VBMC’s local surrogate approach provides stable approximations, its conservative exploration strategy and limited evaluation budget can cause it to miss regions of complex posteriors. In this work, we introduce Stacking Variational Bayesian Monte Carlo (S-VBMC), a method that constructs global posterior approximations by merging independent VBMC runs through a principled and inexpensive post-processing step. Our approach leverages VBMC’s mixture posterior representation and per-component evidence estimates, requiring no additional likelihood evaluations while being naturally parallelizable. We demonstrate S-VBMC’s effectiveness on two synthetic problems designed to challenge VBMC’s exploration capabilities and two real-world applications from computational neuroscience, showing substantial improvements in posterior approximation quality across all cases.

arxiv情報

著者 Francesco Silvestrin,Chengkun Li,Luigi Acerbi
発行日 2025-04-08 17:56:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク