要約
私たちは、機械学習とその基礎となるテクノロジーの最近の発展を活用して、高次元の設定でベイズ推論を加速する、宇宙論的尤度ベースの推論の新しいパラダイムを提唱します。
具体的には、(i) エミュレーションを組み合わせます。エミュレーションでは、機械学習モデルが宇宙論的な観測値を模倣するようにトレーニングされます。
コスモパワー-JAX;
(ii) 微分可能かつ確率的なプログラミング、例:
それぞれ JAX と NumPyro。
(iii) 勾配を利用するスケーラブルなマルコフ連鎖モンテカルロ (MCMC) サンプリング手法。
ハミルトニアン モンテカルロ法。
(iv) 純粋に事後サンプルからベイジアン証拠を計算する、分離されたスケーラブルなベイジアン モデル選択手法。
学習された調和平均は調和で実装されます。
このパラダイムにより、パラメーター推定とモデル選択の両方を含む完全なベイジアン分析を、従来のアプローチの数分の一の時間で実行できます。
まず、$\Lambda$CDM と動的ダーク エネルギー モデル ($w_0w_a$CDM) を比較しながら、37 次元および 39 次元パラメータ空間でのステージ IV 調査の模擬宇宙せん断解析にこのパラダイムを適用することを実証します。
従来のネストされたサンプリング アプローチで計算されたものとよく一致する事後輪郭と証拠の推定値を回復しながら、計算コストを 48 CPU コアで 8 か月から 12 GPU で 2 日に削減しました。
次に、3 つのシミュレートされた次世代調査の間の結合分析を検討します。各調査では 3x2pt 分析が実行され、結果として 157 次元と 159 次元のパラメーター空間が得られます。
標準のネストされたサンプリング手法は、この高次元の設定では実現可能性が低く、48 個の CPU コアで 12 年間の計算時間が必要になると予測されています。
一方、提案されたアプローチでは、24 個の GPU で 8 日間の計算時間しか必要としません。
分析で使用されるすべてのパッケージは公開されています。
要約(オリジナル)
We advocate for a new paradigm of cosmological likelihood-based inference, leveraging recent developments in machine learning and its underlying technology, to accelerate Bayesian inference in high-dimensional settings. Specifically, we combine (i) emulation, where a machine learning model is trained to mimic cosmological observables, e.g. CosmoPower-JAX; (ii) differentiable and probabilistic programming, e.g. JAX and NumPyro, respectively; (iii) scalable Markov chain Monte Carlo (MCMC) sampling techniques that exploit gradients, e.g. Hamiltonian Monte Carlo; and (iv) decoupled and scalable Bayesian model selection techniques that compute the Bayesian evidence purely from posterior samples, e.g. the learned harmonic mean implemented in harmonic. This paradigm allows us to carry out a complete Bayesian analysis, including both parameter estimation and model selection, in a fraction of the time of traditional approaches. First, we demonstrate the application of this paradigm on a simulated cosmic shear analysis for a Stage IV survey in 37- and 39-dimensional parameter spaces, comparing $\Lambda$CDM and a dynamical dark energy model ($w_0w_a$CDM). We recover posterior contours and evidence estimates that are in excellent agreement with those computed by the traditional nested sampling approach while reducing the computational cost from 8 months on 48 CPU cores to 2 days on 12 GPUs. Second, we consider a joint analysis between three simulated next-generation surveys, each performing a 3x2pt analysis, resulting in 157- and 159-dimensional parameter spaces. Standard nested sampling techniques are simply unlikely to be feasible in this high-dimensional setting, requiring a projected 12 years of compute time on 48 CPU cores; on the other hand, the proposed approach only requires 8 days of compute time on 24 GPUs. All packages used in our analyses are publicly available.
arxiv情報
著者 | Davide Piras,Alicja Polanska,Alessio Spurio Mancini,Matthew A. Price,Jason D. McEwen |
発行日 | 2024-09-04 14:10:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google