Maximum Likelihood Learning of Unnormalized Models for Simulation-Based Inference

要約

タイトル:シミュレーションベース推論のための非標準化モデルの最大尤度学習

要約:

– 高品質なシミュレータがある場合、実験観測からアモルタイズドまたはターゲット推論を実行するための2つの合成尤度法を導入する。
– 両方の方法は、提案分布から描かれたパラメータによって調整されたシミュレータによって生成された合成データを使用して尤度の条件つきエネルギーベースモデル(EBM)を学習する。
– 学習された尤度は、任意の事前確率と結合して事後推定を得るために使用でき、そこからMCMCを使用してサンプルを抽出することができる。
– この方法は、柔軟なエネルギーベースモデルとKL損失の最小化を組み合わせたものであり、他の合成尤度法とは対照的である。
– 両方の方法の特性を、さまざまな合成データセットでデモンストレーションし、カニの幽門(胃門)ネットワークの神経科学モデルに適用することで、シミュレーション予算の一部にすぎない我々の手法が先行研究を上回る結果を示す。

要約(オリジナル)

We introduce two synthetic likelihood methods for Simulation-Based Inference (SBI), to conduct either amortized or targeted inference from experimental observations when a high-fidelity simulator is available. Both methods learn a conditional energy-based model (EBM) of the likelihood using synthetic data generated by the simulator, conditioned on parameters drawn from a proposal distribution. The learned likelihood can then be combined with any prior to obtain a posterior estimate, from which samples can be drawn using MCMC. Our methods uniquely combine a flexible Energy-Based Model and the minimization of a KL loss: this is in contrast to other synthetic likelihood methods, which either rely on normalizing flows, or minimize score-based objectives; choices that come with known pitfalls. We demonstrate the properties of both methods on a range of synthetic datasets, and apply them to a neuroscience model of the pyloric network in the crab, where our method outperforms prior art for a fraction of the simulation budget.

arxiv情報

著者 Pierre Glaser,Michael Arbel,Samo Hromadka,Arnaud Doucet,Arthur Gretton
発行日 2023-04-18 09:45:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク