Amortized Bayesian Multilevel Models

要約

マルチレベル モデル (MLM) は、ベイジアン ワークフローの中心的な構成要素です。
これらにより、階層レベル全体にわたるデータの共同で解釈可能なモデリングが可能になり、不確実性を完全に確率的に定量化できます。
MLM の利点はよく知られていますが、MLM には計算上の大きな課題があり、妥当な時間制約内での推定と評価が困難になることがよくあります。
シミュレーションベースの推論における最近の進歩により、深い生成ネットワークを使用して複雑な確率モデルに対処するための有望なソリューションが提供されます。
ただし、ベイジアン MLM を推定するための深層学習手法の有用性と信頼性は、特にゴールドスタンダード サンプラーと比較した場合、ほとんど解明されていないままです。
この目的を達成するために、マルチレベル モデルの確率的因数分解を活用して、効率的なニューラル ネットワークのトレーニングとその後の目に見えないデータセットに対するほぼ瞬時の事後推論を促進するニューラル ネットワーク アーキテクチャのファミリーを探索します。
私たちはいくつかの実世界のケーススタディでメソッドをテストし、可能な場合はゴールドスタンダードメソッドとしてスタンとの包括的な比較を提供します。
最後に、償却ベイズ推論の初期の分野におけるさらなる研究を促進するために、私たちのメソッドのオープンソース実装を提供します。

要約(オリジナル)

Multilevel models (MLMs) are a central building block of the Bayesian workflow. They enable joint, interpretable modeling of data across hierarchical levels and provide a fully probabilistic quantification of uncertainty. Despite their well-recognized advantages, MLMs pose significant computational challenges, often rendering their estimation and evaluation intractable within reasonable time constraints. Recent advances in simulation-based inference offer promising solutions for addressing complex probabilistic models using deep generative networks. However, the utility and reliability of deep learning methods for estimating Bayesian MLMs remains largely unexplored, especially when compared with gold-standard samplers. To this end, we explore a family of neural network architectures that leverage the probabilistic factorization of multilevel models to facilitate efficient neural network training and subsequent near-instant posterior inference on unseen data sets. We test our method on several real-world case studies and provide comprehensive comparisons to Stan as a gold-standard method where possible. Finally, we provide an open-source implementation of our methods to stimulate further research in the nascent field of amortized Bayesian inference.

arxiv情報

著者 Daniel Habermann,Marvin Schmitt,Lars Kühmichel,Andreas Bulling,Stefan T. Radev,Paul-Christian Bürkner
発行日 2024-08-23 17:11:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.CO, stat.ML パーマリンク