Computational Algebra with Attention: Transformer Oracles for Border Basis Algorithms

要約

多項式方程式のシステム、特に有限のソリューションのシステムを解くことは、多くの科学分野で重要な課題です。
Gr \ ‘ObnerやBorder Baseなどの従来の方法は基本的ですが、出力の正確性を犠牲にしても、効率を改善するための最近の深い学習アプローチを動機付けている計算コストが高くなります。
この作業では、出力保証を維持しながら境界基底の計算を加速する最初の深い学習アプローチであるOracle Border Basic Basic Algorithmを紹介します。
このため、アルゴリズムのランタイムを支配するために、計算上の高価な削減ステップを識別および排除するトランスベースのオラクルを設計および訓練します。
計算の重要な段階でこのオラクルを選択的に呼び出すことにより、結果の正確性を損なうことなく、ベースアルゴリズムと比較して最大3.5倍の実質的なスピードアップ係数を達成します。
トレーニングデータを生成するために、サンプリング方法を開発し、境界ベースの最初のサンプリング定理を提供します。
モノミアル中心の代数計算に合わせて調整されたトークン化と埋め込みスキームを構築し、コンパクトで表現力のある入力表現をもたらし、トークンの数を減らして$ n $ variate多項式を$ o(n)$の係数でエンコードします。
私たちの学習アプローチは、データ効率が高く、安定しており、従来のコンピューター代数アルゴリズムとシンボリック計算の実用的な強化です。

要約(オリジナル)

Solving systems of polynomial equations, particularly those with finitely many solutions, is a crucial challenge across many scientific fields. Traditional methods like Gr\’obner and Border bases are fundamental but suffer from high computational costs, which have motivated recent Deep Learning approaches to improve efficiency, albeit at the expense of output correctness. In this work, we introduce the Oracle Border Basis Algorithm, the first Deep Learning approach that accelerates Border basis computation while maintaining output guarantees. To this end, we design and train a Transformer-based oracle that identifies and eliminates computationally expensive reduction steps, which we find to dominate the algorithm’s runtime. By selectively invoking this oracle during critical phases of computation, we achieve substantial speedup factors of up to 3.5x compared to the base algorithm, without compromising the correctness of results. To generate the training data, we develop a sampling method and provide the first sampling theorem for border bases. We construct a tokenization and embedding scheme tailored to monomial-centered algebraic computations, resulting in a compact and expressive input representation, which reduces the number of tokens to encode an $n$-variate polynomial by a factor of $O(n)$. Our learning approach is data efficient, stable, and a practical enhancement to traditional computer algebra algorithms and symbolic computation.

arxiv情報

著者 Hiroshi Kera,Nico Pelleriti,Yuki Ishihara,Max Zimmer,Sebastian Pokutta
発行日 2025-05-29 17:35:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SC パーマリンク