要約
この研究では、逐次的な最適化または再構成と分析コンポーネントの標準的なパラダイムを超えて、高エネルギー物理学 (HEP) においてパフォーマンスとデータ効率の大幅な向上が達成できることを実証します。
HEP の再構成と分析を、事前トレーニング、微調整、ドメイン適応、高次元埋め込み空間などの最新の機械学習ワークフローに概念的に接続し、中間ディヒッグス システムを介して減衰する重い共鳴の検索のユースケース例における利益を 4 $ に定量化します。
b$ジェット。
要約(オリジナル)
In this work we demonstrate that significant gains in performance and data efficiency can be achieved in High Energy Physics (HEP) by moving beyond the standard paradigm of sequential optimization or reconstruction and analysis components. We conceptually connect HEP reconstruction and analysis to modern machine learning workflows such as pretraining, finetuning, domain adaptation and high-dimensional embedding spaces and quantify the gains in the example usecase of searches of heavy resonances decaying via an intermediate di-Higgs system to four $b$-jets.
arxiv情報
著者 | Matthias Vigl,Nicole Hartman,Lukas Heinrich |
発行日 | 2024-01-25 16:47:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google