Scalable Monte Carlo for Bayesian Learning

要約

この本の目的は、ベイズ計算のコンテキストで広く適用されるマルコフ連鎖モンテカルロ (MCMC) アルゴリズムの高度なトピックを大学院レベルで紹介することです。
これらのトピック (確率的勾配 MCMC、非可逆 MCMC、連続時間 MCMC、および収束評価のための新しい技術) のすべてではないにしても、そのほとんどはここ 10 年ほどの間に登場し、この分野における最近の実用的および理論的な大幅な進歩を推進しました。

特に重点を置いているのは、機械学習と AI における新たな優先度の高いアプリケーション分野に動機付けられた、データ量またはデータ次元のいずれに関してもスケーラブルな手法です。

要約(オリジナル)

This book aims to provide a graduate-level introduction to advanced topics in Markov chain Monte Carlo (MCMC) algorithms, as applied broadly in the Bayesian computational context. Most, if not all of these topics (stochastic gradient MCMC, non-reversible MCMC, continuous time MCMC, and new techniques for convergence assessment) have emerged as recently as the last decade, and have driven substantial recent practical and theoretical advances in the field. A particular focus is on methods that are scalable with respect to either the amount of data, or the data dimension, motivated by the emerging high-priority application areas in machine learning and AI.

arxiv情報

著者 Paul Fearnhead,Christopher Nemeth,Chris J. Oates,Chris Sherlock
発行日 2024-07-17 17:19:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.CO, stat.ME, stat.ML パーマリンク