Discrete Denoising Diffusion Approach to Integer Factorization

要約

整数因数分解は、多項式時間で解けるかどうか不明な有名な計算問題です。
ディープ ニューラル ネットワークの台頭により、ディープ ニューラル ネットワークがより高速な因数分解を促進できるかどうかは興味深いです。
ディープ ニューラル ネットワークと、部分的に正しい解決策のエラーを繰り返し修正することで機能する離散ノイズ除去拡散を利用した因数分解のアプローチを紹介します。
この目的を達成するために、新しい seq2seq ニューラル ネットワーク アーキテクチャを開発し、緩和されたカテゴリカル分布を採用し、ノイズ除去ステップの不正確さにうまく対処できるように逆拡散プロセスを適応させます。
このアプローチでは、最大 56 ビット長の整数の因数を見つけることができます。
私たちの分析によると、トレーニングへの投資により、特定の成功率を達成するために推論時に必要なサンプリング ステップが指数関数的に減少し、ビット長に応じた実行時間の指数関数的な増加が相殺されることがわかりました。

要約(オリジナル)

Integer factorization is a famous computational problem unknown whether being solvable in the polynomial time. With the rise of deep neural networks, it is interesting whether they can facilitate faster factorization. We present an approach to factorization utilizing deep neural networks and discrete denoising diffusion that works by iteratively correcting errors in a partially-correct solution. To this end, we develop a new seq2seq neural network architecture, employ relaxed categorical distribution and adapt the reverse diffusion process to cope better with inaccuracies in the denoising step. The approach is able to find factors for integers of up to 56 bits long. Our analysis indicates that investment in training leads to an exponential decrease of sampling steps required at inference to achieve a given success rate, thus counteracting an exponential run-time increase depending on the bit-length.

arxiv情報

著者 Karlis Freivalds,Emils Ozolins,Guntis Barzdins
発行日 2023-09-11 08:26:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク