要約
ニューラルネットワークは、高エネルギー物理学のタスクの強力なパラダイムとして浮上していますが、それらの不透明なトレーニングプロセスはそれらをブラックボックスとしてレンダリングします。
対照的に、従来のカットフロー方法は、シンプルさと解釈可能性を提供しますが、最適な境界を特定するために人間の努力を要求します。
両方のアプローチの強度をマージするために、従来のカット選択を完全に微分可能なデータ駆動型プロセスに変換するニューラルネットワークである学習可能なカットフロー(LCF)を提案します。
LCFは、観察可能な分布が独立して処理される2つのカット戦略を実装し、以前のカットがその後のものを形成して最適な境界を柔軟に決定する順番を実装します。
これに基づいて、特徴の重要性を定量化し、それに応じて損失への貢献を調整するメトリックである学習可能な重要性を紹介し、アドホックメトリックとは異なり、モデル駆動型の洞察を提供します。
差別化可能性を確保するために、変更された損失関数はハードカットをマスク操作に置き換え、トレーニングプロセス全体でデータの形状を維持します。
LCFは、6つのさまざまなモックデータセットと現実的なディボソン対QCDデータセットでテストされています。
結果は、LCF(1)が並列戦略と順次戦略の両方で典型的な特徴分布におけるカット境界を正確に学習することを示しています。
Diboson Datasetでは、LCFは最初にすべての観測可能性を使用するときに決定ツリーとマルチプレイヤーパーセプロンをブーストしました。
ただし、学習された重要性を高めることにより、より重要性の低い機能が装飾されています。これらのベースラインに合わせたり、それを超えたりするようにパフォーマンスを強化します。
LCFは、従来のカットフロー方法と最新のブラックボックスニューラルネットワークの間のギャップを埋め、トレーニングプロセスと機能の重要性について実用的な洞察を提供します。
要約(オリジナル)
Neural networks have emerged as a powerful paradigm for tasks in high energy physics, yet their opaque training process renders them as a black box. In contrast, the traditional cut flow method offers simplicity and interpretability but demands human effort to identify optimal boundaries. To merge the strengths of both approaches, we propose the Learnable Cut Flow (LCF), a neural network that transforms the traditional cut selection into a fully differentiable, data-driven process. LCF implements two cut strategies-parallel, where observable distributions are treated independently, and sequential, where prior cuts shape subsequent ones-to flexibly determine optimal boundaries. Building on this, we introduce the Learnable Importance, a metric that quantifies feature importance and adjusts their contributions to the loss accordingly, offering model-driven insights unlike ad-hoc metrics. To ensure differentiability, a modified loss function replaces hard cuts with mask operations, preserving data shape throughout the training process. LCF is tested on six varied mock datasets and a realistic diboson vs. QCD dataset. Results demonstrate that LCF (1) accurately learns cut boundaries across typical feature distributions in both parallel and sequential strategies, (2) assigns higher importance to discriminative features with minimal overlap, (3) handles redundant or correlated features robustly, and (4) performs effectively in real-world scenarios. In diboson dataset, LCF initially underperforms boosted decision trees and multiplayer perceptrons when using all observables. However, pruning less critical features-guided by learned importance-boosts its performance to match or exceed these baselines. LCF bridges the gap between traditional cut flow method and modern black-box neural networks, delivering actionable insights into the training process and feature importance.
arxiv情報
著者 | Jing Li,Hao Sun |
発行日 | 2025-03-28 15:04:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google