Transformer-Powered Surrogates Close the ICF Simulation-Experiment Gap with Extremely Limited Data

要約

機械学習、特に変圧器アーキテクチャの最近の進歩は、商業分野での大幅な進歩につながりました。
これらの強力なモデルは、複雑な関係を学習し、多くの場合、新しいデータや問題に対してより適切に一般化する優れた機能を実証しています。
この論文では、まばらな実験データがシミュレーション データで補完される、マルチモーダル出力シナリオにおける予測精度を向上させるための、変圧器を利用した新しいアプローチを紹介します。
提案されたアプローチは、トランスフォーマーベースのアーキテクチャと新しいグラフベースのハイパーパラメーター最適化手法を統合します。
結果として得られるシステムは、シミュレーションのバイアスを効果的に低減するだけでなく、従来の方法と比較して優れた予測精度も実現します。
我々は、現実世界のデータが 10 ショットしか利用できない慣性閉じ込め核融合実験と、これらの実験の合成バージョンに対するアプローチの有効性を実証します。

要約(オリジナル)

Recent advances in machine learning, specifically transformer architecture, have led to significant advancements in commercial domains. These powerful models have demonstrated superior capability to learn complex relationships and often generalize better to new data and problems. This paper presents a novel transformer-powered approach for enhancing prediction accuracy in multi-modal output scenarios, where sparse experimental data is supplemented with simulation data. The proposed approach integrates transformer-based architecture with a novel graph-based hyper-parameter optimization technique. The resulting system not only effectively reduces simulation bias, but also achieves superior prediction accuracy compared to the prior method. We demonstrate the efficacy of our approach on inertial confinement fusion experiments, where only 10 shots of real-world data are available, as well as synthetic versions of these experiments.

arxiv情報

著者 Matthew L. Olson,Shusen Liu,Jayaraman J. Thiagarajan,Bogdan Kustowski,Weng-Keen Wong,Rushil Anirudh
発行日 2023-12-06 17:53:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク