要約
多項式系を解くこと、または関連する Gr\’obner 基底を計算することは、計算代数の基本的なタスクです。
ただし、最悪の場合、変数の数が 2 倍に指数関数的に複雑になることで悪名高いことでも知られています。
この論文は、Transformers を使用した Gr\’obner 基底計算の学習に初めて取り組んだものです。
トレーニングには、多項式システムと関連する Gr\’obner 基底の多くのペアが必要で、2 つの新しい代数問題が発生します。Gr\’obner 基底のランダム生成と、Gr\’obner 基底の非 Gr\’obner 基底への変換 (後方 Gr\’ と呼ばれます) です。
オーナーの問題。
これらの問題を、さまざまなアプリケーションに現れる 0 次元のラジカル理想で解決します。
さらに、連続性バイアスのある係数トークンを処理し、語彙セットの増大を回避するためのハイブリッド入力埋め込みを提案します。
実験では、私たちのデータセット生成方法が素朴なアプローチよりも数桁高速で、Gr\’obner 基底の計算学習における重大な課題を克服し、Gr’obner の計算が特定のクラスで学習可能であることを示しています。
要約(オリジナル)
Solving a polynomial system, or computing an associated Gr\’obner basis, has been a fundamental task in computational algebra. However, it is also known for its notorious doubly exponential time complexity in the number of variables in the worst case. This paper is the first to address the learning of Gr\’obner basis computation with Transformers. The training requires many pairs of a polynomial system and the associated Gr\’obner basis, raising two novel algebraic problems: random generation of Gr\’obner bases and transforming them into non-Gr\’obner ones, termed as backward Gr\’obner problem. We resolve these problems with 0-dimensional radical ideals, the ideals appearing in various applications. Further, we propose a hybrid input embedding to handle coefficient tokens with continuity bias and avoid the growth of the vocabulary set. The experiments show that our dataset generation method is a few orders of magnitude faster than a naive approach, overcoming a crucial challenge in learning to compute Gr\’obner bases, and Gr\’obner computation is learnable in a particular class.
arxiv情報
著者 | Hiroshi Kera,Yuki Ishihara,Yuta Kambe,Tristan Vaccon,Kazuhiro Yokoyama |
発行日 | 2024-11-06 15:39:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google