Online Variational Sequential Monte Carlo

要約

シリアルデータに対する最も古典的な生成モデルである状態空間モデル(SSM)は、AIや統計的機械学習の基本である。SSMでは、どのような形式のパラメータ学習や潜在状態推論においても、通常、複雑な潜在状態の後置の計算が必要となる。本研究では、粒子法と変分推論を組み合わせることで、計算効率が高く正確なモデルパラメータ推定とベイズ潜在状態推論を提供する変分逐次モンテカルロ法(VSMC)を基礎とする。標準的なVSMCはオフラインモードで動作するが、我々は与えられたデータのバッチを繰り返し再処理することにより、確率的近似を用いてVSMC代理ELBOの勾配の近似を時間的に分散させ、データのストリームが存在する場合のオンライン学習を可能にする。その結果、パラメータ推定と粒子提案適応の両方を、完全にオンザフライで効率的に実行できるアルゴリズム、オンラインVSMCが得られる。さらに、データ数が無限大になるにつれて、このアルゴリズムの収束特性を説明する厳密な理論結果と、その優れた収束特性とバッチ処理設定においても有用であることを示す数値例を提供する。

要約(オリジナル)

Being the most classical generative model for serial data, state-space models (SSM) are fundamental in AI and statistical machine learning. In SSM, any form of parameter learning or latent state inference typically involves the computation of complex latent-state posteriors. In this work, we build upon the variational sequential Monte Carlo (VSMC) method, which provides computationally efficient and accurate model parameter estimation and Bayesian latent-state inference by combining particle methods and variational inference. While standard VSMC operates in the offline mode, by re-processing repeatedly a given batch of data, we distribute the approximation of the gradient of the VSMC surrogate ELBO in time using stochastic approximation, allowing for online learning in the presence of streams of data. This results in an algorithm, online VSMC, that is capable of performing efficiently, entirely on-the-fly, both parameter estimation and particle proposal adaptation. In addition, we provide rigorous theoretical results describing the algorithm’s convergence properties as the number of data tends to infinity as well as numerical illustrations of its excellent convergence properties and usefulness also in batch-processing settings.

arxiv情報

著者 Alessandro Mastrototaro,Jimmy Olsson
発行日 2024-02-02 16:24:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク