要約
ニューラル ネットワーク回帰モデルを構築して、二項理想の Gr\’obner 基底の複雑さの主要な指標を予測します。
この研究は、Gr\’obner 計算によるニューラル ネットワークによる予測が単純なプロセスではない理由を示しています。
ランダムな二項理想に対する 2 つの確率モデルを使用して、オブジェクトの複雑さの十分な変動を捉えることができる大規模なデータ セットを生成し、利用できるようにします。
このデータを使用してニューラル ネットワークをトレーニングし、縮小された Gr\’obner 基底のカーディナリティとその要素の最大合計次数を予測します。
カーディナリティ予測の問題は機械学習で取り組む古典的な問題とは異なりますが、$r^2 = 0.401$ などのパフォーマンス統計を提供するニューラル ネットワークは、単純な推測や $r^2 = 0.180$ の重回帰モデルよりも優れたパフォーマンスを示すことがシミュレーションで示されています。
要約(オリジナル)
We construct neural network regression models to predict key metrics of complexity for Gr\’obner bases of binomial ideals. This work illustrates why predictions with neural networks from Gr\’obner computations are not a straightforward process. Using two probabilistic models for random binomial ideals, we generate and make available a large data set that is able to capture sufficient variability in Gr\’obner complexity. We use this data to train neural networks and predict the cardinality of a reduced Gr\’obner basis and the maximum total degree of its elements. While the cardinality prediction problem is unlike classical problems tackled by machine learning, our simulations show that neural networks, providing performance statistics such as $r^2 = 0.401$, outperform naive guess or multiple regression models with $r^2 = 0.180$.
arxiv情報
著者 | Shahrzad Jamshidi,Eric Kang,Sonja Petrović |
発行日 | 2023-09-25 16:27:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google