Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures

要約

この研究では、ハイブリッド畳み込み再帰型ニューラル ネットワーク アーキテクチャと純粋再帰型ニューラル ネットワーク アーキテクチャに基づくディープ ラーニングを、ほぼ 100 万個の完全交差カラビ ヤウ フォーフォールド (CICY4) のデータセットに適用し、その 4 つのホッジ数を機械学習した結果を報告します。
$h^{1,1}、h^{2,1}、h^{3,1}、h^{2,2}$。
特に、私たちは 12 の異なるニューラル ネットワーク モデルを調査および実験しました。そのうち 9 つは畳み込み再帰型 (CNN-RNN) ハイブリッドであり、RNN ユニットは GRU (Gated Recurrent Unit) または Long Short Term Memory (LSTM) のいずれかです。
残りの 4 つのモデルは、LSTM に基づく純粋なリカレント ニューラル ネットワークです。
$h^{1,1}、h^{2,1}、h^{3,1}、h^{2,2}$ の予測精度に関しては、トレーニング率 72% で、最もパフォーマンスの高い個人が得られました。
モデルは CNN-LSTM-400、LSTM 隠れサイズ 400 のハイブリッド CNN-LSTM で、99.74%、98.07%、95.19%、81.01% を取得しました。2 番目にパフォーマンスの良い個別モデルは、LSTM ベースの LSTM-448 です。
隠れサイズ 448 のモデル。99.74%、97.51%、94.24%、78.63% が得られました。
これらの結果は、上位 2 つ、3 つ、または 4 つのモデルのアンサンブルを形成することで改善されました。
上位 3 つのモデルで構成される当社の最良のアンサンブルは、99.80%、98.40%、95.80%、83.02% の精度を達成しました。
80% のトレーニング率では、上位 2 つのパフォーマンス モデル LSTM-448 と LSTM-424 はどちらも LSTM ベースで、隠れサイズは 448 と 424 です。 72% のトレーニング率と比較すると、精度が大幅に向上しており、その精度は最高に達しています。
最高の個別モデルでは 99.85%、98.66%、96.26%、84.77%、最高のアンサンブルでは 99.88%、98.91%、96.96%、86.78%。

要約(オリジナル)

In this work, we report the results of applying deep learning based on hybrid convolutional-recurrent and purely recurrent neural network architectures to the dataset of almost one million complete intersection Calabi-Yau four-folds (CICY4) to machine-learn their four Hodge numbers $h^{1,1}, h^{2,1}, h^{3,1}, h^{2,2}$. In particular, we explored and experimented with twelve different neural network models, nine of which are convolutional-recurrent (CNN-RNN) hybrids with the RNN unit being either GRU (Gated Recurrent Unit) or Long Short Term Memory (LSTM). The remaining four models are purely recurrent neural networks based on LSTM. In terms of the $h^{1,1}, h^{2,1}, h^{3,1}, h^{2,2}$ prediction accuracies, at 72% training ratio, our best performing individual model is CNN-LSTM-400, a hybrid CNN-LSTM with the LSTM hidden size of 400, which obtained 99.74%, 98.07%, 95.19%, 81.01%, our second best performing individual model is LSTM-448, an LSTM-based model with the hidden size of 448, which obtained 99.74%, 97.51%, 94.24%, and 78.63%. These results were improved by forming ensembles of the top two, three or even four models. Our best ensemble, consisting of the top three models, achieved the accuracies of 99.80%, 98.40%, 95.80%, 83.02%. At 80% training ratio, the top two performing models LSTM-448 and LSTM-424 are both LSTM-based with the hidden sizes of 448 and 424. Compared with the 72% training ratio, there is a significant improvement of accuracies, which reached 99.85%, 98.66%, 96.26%, 84.77% for the best individual model and 99.88%, 98.91%, 96.96%, 86.78% for the best ensemble.

arxiv情報

著者 H. L. Dao
発行日 2024-05-27 17:55:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-th, math.AG パーマリンク