Improving the performance of weak supervision searches using transfer and meta-learning

要約

弱監視探索は原理的に、実験データで学習でき、特徴的な信号特性を学習できるという利点がある。しかし、弱監視によるニューラルネットワークの学習を成功させるためには、大量の信号が必要となるため、このような探索の実用的な適用には限界がある。本研究では、転移学習とメタ学習を用いることで、より少ない実験信号から学習できるニューラルネットワークの作成を目指す。一般的なアイデアは、まずニューラルネットワークをシミュレーションで訓練することで、再利用可能な概念を学習し、より効率的な学習者になることである。その後、ニューラルネットワークは実験データで訓練され、以前の訓練のおかげでより少ない信号で済むようになる。我々は、転移学習とメタ学習により、弱い監視検索の性能が大幅に向上することを発見した。

要約(オリジナル)

Weak supervision searches have in principle the advantages of both being able to train on experimental data and being able to learn distinctive signal properties. However, the practical applicability of such searches is limited by the fact that successfully training a neural network via weak supervision can require a large amount of signal. In this work, we seek to create neural networks that can learn from less experimental signal by using transfer and meta-learning. The general idea is to first train a neural network on simulations, thereby learning concepts that can be reused or becoming a more efficient learner. The neural network would then be trained on experimental data and should require less signal because of its previous training. We find that transfer and meta-learning can substantially improve the performance of weak supervision searches.

arxiv情報

著者 Hugues Beauchesne,Zong-En Chen,Cheng-Wei Chiang
発行日 2024-03-01 07:24:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, hep-ph パーマリンク