要約
最近、高速検出器シミュレーションと推論タスクの両方のために、生成機械学習とベイジアン機械学習の組み合わせが素粒子物理学に導入されました。
これらのニューラル ネットワークは、限られたトレーニング統計に基づいて生成された分布の不確実性を定量化することを目的としています。
しかし、分布全体にわたる不確実性の解釈は依然として明確ではありません。
ベイジアン生成機械学習モデルのキャリブレーションを定量化するための明確なスキームを示します。
低次元のおもちゃの例に適用された連続正規化フローの場合、平均場ガウス重みの事後分布またはモンテカルロ サンプリング ネットワークの重みのいずれかからベイジアン不確かさのキャリブレーションを評価し、非定常分布エッジでの挙動を測定します。
適切に校正された不確実性を使用して、生成されたサンプルと同等の無相関の真実のサンプルの数を大まかに推定し、分布の滑らかな特徴に対するデータの増幅を明確に示すことができます。
要約(オリジナル)
Recently, combinations of generative and Bayesian machine learning have been introduced in particle physics for both fast detector simulation and inference tasks. These neural networks aim to quantify the uncertainty on the generated distribution originating from limited training statistics. The interpretation of a distribution-wide uncertainty however remains ill-defined. We show a clear scheme for quantifying the calibration of Bayesian generative machine learning models. For a Continuous Normalizing Flow applied to a low-dimensional toy example, we evaluate the calibration of Bayesian uncertainties from either a mean-field Gaussian weight posterior, or Monte Carlo sampling network weights, to gauge their behaviour on unsteady distribution edges. Well calibrated uncertainties can then be used to roughly estimate the number of uncorrelated truth samples that are equivalent to the generated sample and clearly indicate data amplification for smooth features of the distribution.
arxiv情報
著者 | Sebastian Bieringer,Sascha Diefenbacher,Gregor Kasieczka,Mathias Trabs |
発行日 | 2024-11-13 15:48:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google