Mixture-of-Experts Graph Transformers for Interpretable Particle Collision Detection

要約

CERN の大型ハドロン衝突型加速器は、高エネルギー粒子の衝突から膨大な量の複雑なデータを生成し、効果的に解釈するには高度な分析技術が必要です。
グラフ ニューラル ネットワークを含むニューラル ネットワークは、衝突をグラフとして表すことにより、イベント分類やオブ​​ジェクト識別などのタスクで有望であることが示されています。
ただし、グラフ ニューラル ネットワークは予測精度に優れていますが、その「ブラック ボックス」の性質により解釈可能性が制限されることが多く、意思決定プロセスを信頼することが困難になります。
この論文では、Graph Transformer モデルと Mixture-of-Expert レイヤーを組み合わせて、アーキテクチャに解釈可能性を埋め込みながら高い予測パフォーマンスを達成する新しいアプローチを提案します。
このモデルは、アテンション マップと専門家の専門知識を活用することで、内部の意思決定に対する洞察を提供し、予測を物理学に基づいた特徴に結び付けます。
私たちは、標準モデルのバックグラウンドからまれな超対称信号イベントを区別することに焦点を当てて、ATLAS 実験からのシミュレートされたイベントに基づいてモデルを評価します。
私たちの結果は、このモデルが既知の物理学に沿った解釈可能な出力を提供しながら、競合する分類精度を達成していることを強調しており、高エネルギー物理学データ分析のための堅牢かつ透明なツールとしての可能性を実証しています。
このアプローチは、高エネルギー物理学に適用される機械学習手法における説明可能性の重要性を強調し、AI 主導の発見に対するより大きな信頼への道を提供します。

要約(オリジナル)

The Large Hadron Collider at CERN produces immense volumes of complex data from high-energy particle collisions, demanding sophisticated analytical techniques for effective interpretation. Neural Networks, including Graph Neural Networks, have shown promise in tasks such as event classification and object identification by representing collisions as graphs. However, while Graph Neural Networks excel in predictive accuracy, their ‘black box’ nature often limits their interpretability, making it difficult to trust their decision-making processes. In this paper, we propose a novel approach that combines a Graph Transformer model with Mixture-of-Expert layers to achieve high predictive performance while embedding interpretability into the architecture. By leveraging attention maps and expert specialization, the model offers insights into its internal decision-making, linking predictions to physics-informed features. We evaluate the model on simulated events from the ATLAS experiment, focusing on distinguishing rare Supersymmetric signal events from Standard Model background. Our results highlight that the model achieves competitive classification accuracy while providing interpretable outputs that align with known physics, demonstrating its potential as a robust and transparent tool for high-energy physics data analysis. This approach underscores the importance of explainability in machine learning methods applied to high energy physics, offering a path toward greater trust in AI-driven discoveries.

arxiv情報

著者 Donatella Genovese,Alessandro Sgroi,Alessio Devoto,Samuel Valentine,Lennox Wood,Cristiano Sebastiani,Stefano Giagu,Monica D’Onofrio,Simone Scardapane
発行日 2025-01-08 15:57:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-ph パーマリンク