Generating particle physics Lagrangians with transformers

要約

物理学では、ラグランジアンは、物理システムを支配する法則を記述する体系的な方法を提供します。
素粒子物理学の文脈では、それらは私たちの宇宙の基本的な構成要素の相互作用と動作をコード化します。
ラグランジアンを言語表現に似た複雑なルールベースの構造として扱うことで、自然言語タスクで効果的であることが証明されている変換モデルをトレーニングして、指定された粒子のリストに対応するラグランジアンを予測しました。
標準モデル $\mathrm{SU}(3)\times \mathrm{SU}(2)\times \mathrm{U}(1)$ ゲージ対称性を尊重したラグランジアンの構築における変換器のパフォーマンスについて報告します。
結果として得られるモデルは、アーキテクチャ上の制約内であっても、トレーニング分布を超えて一般化できる能力を備え、最大 6 つの物質場までのラグランジュ関数で高い精度 (90% 以上) を達成することが示されています。
入力埋め込みの分析を通じて、モデルがラグランジュ関数の生成を学習する際に、群表現や共役演算などの概念を内部化していることを示します。
モデルとトレーニング データセットをコミュニティが利用できるようにします。
インタラクティブなデモンストレーションは、\url{https://huggingface.co/spaces/JoseEliel/generate-lagrangians} でご覧いただけます。

要約(オリジナル)

In physics, Lagrangians provide a systematic way to describe laws governing physical systems. In the context of particle physics, they encode the interactions and behavior of the fundamental building blocks of our universe. By treating Lagrangians as complex, rule-based constructs similar to linguistic expressions, we trained a transformer model — proven to be effective in natural language tasks — to predict the Lagrangian corresponding to a given list of particles. We report on the transformer’s performance in constructing Lagrangians respecting the Standard Model $\mathrm{SU}(3)\times \mathrm{SU}(2)\times \mathrm{U}(1)$ gauge symmetries. The resulting model is shown to achieve high accuracies (over 90\%) with Lagrangians up to six matter fields, with the capacity to generalize beyond the training distribution, albeit within architectural constraints. We show through an analysis of input embeddings that the model has internalized concepts such as group representations and conjugation operations as it learned to generate Lagrangians. We make the model and training datasets available to the community. An interactive demonstration can be found at: \url{https://huggingface.co/spaces/JoseEliel/generate-lagrangians}.

arxiv情報

著者 Yong Sheng Koay,Rikard Enberg,Stefano Moretti,Eliel Camargo-Molina
発行日 2025-01-16 18:25:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SC, hep-ph, hep-th パーマリンク