要約
大型ハドロン衝突型加速器 (LHC) での高エネルギー衝突は、素粒子物理学における未解決の問題に対する貴重な洞察を提供します。
ただし、測定値を特定の理論的予測や他の検出器からの測定値と比較する前に、検出器の影響を補正する必要があります。
検出器の観測結果を根底にある衝突の理論量にマッピングするこの \textit{逆問題} を解決する方法は、LHC における多くの物理解析の重要な部分です。
この逆マッピングを近似するために、さまざまな生成深層学習手法を調査および比較します。
私たちは、最先端のジェネレーティブ アート アプローチの潜在学習とエンドツーエンドの変分フレームワークを組み合わせた、潜在変分拡散モデルと呼ばれる新しい統一アーキテクチャを導入します。
我々は、理論的な運動学量の大域的分布を再構成すること、および学習された事後分布が既知の物理的制約に確実に従うことを保証するための、このアプローチの有効性を実証します。
私たちの統一アプローチは、非潜在的な最先端のベースラインよりも 20 分の 1 以上短く、従来の潜在的な拡散モデルよりも 3 分の 1 少ない、真実までの分布のない距離を達成します。
要約(オリジナル)
High-energy collisions at the Large Hadron Collider (LHC) provide valuable insights into open questions in particle physics. However, detector effects must be corrected before measurements can be compared to certain theoretical predictions or measurements from other detectors. Methods to solve this \textit{inverse problem} of mapping detector observations to theoretical quantities of the underlying collision are essential parts of many physics analyses at the LHC. We investigate and compare various generative deep learning methods to approximate this inverse mapping. We introduce a novel unified architecture, termed latent variation diffusion models, which combines the latent learning of cutting-edge generative art approaches with an end-to-end variational framework. We demonstrate the effectiveness of this approach for reconstructing global distributions of theoretical kinematic quantities, as well as for ensuring the adherence of the learned posterior distributions to known physics constraints. Our unified approach achieves a distribution-free distance to the truth of over 20 times less than non-latent state-of-the-art baseline and 3 times less than traditional latent diffusion models.
arxiv情報
著者 | Alexander Shmakov,Kevin Greif,Michael Fenton,Aishik Ghosh,Pierre Baldi,Daniel Whiteson |
発行日 | 2023-05-17 17:43:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google