Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks with Quantum Computation

要約

量子機械学習 (QML) の分野における重要な課題は、ニューラル ネットワークなどの機械学習の一般的なタスクを高速化する量子計算のアプリケーションを確立することです。
リッジレット変換はニューラル ネットワークの理論的研究における基本的な数学的ツールでしたが、従来の古典的な計算による数値実装には指数関数的な実行時間 $\exp(O(D)) が必要となるため、学習タスクの実行へのリッジレット変換の実際の適用性は限られていました。
$はデータ次元$D$が増加するにつれて増加します。
この問題に対処するために、私たちは量子計算の線形実行時間 $O(D)$ 内で量子状態のリッジレット変換を実装する量子リッジレット変換 (QRT) を開発します。
応用として、元のネットワークの大規模な最適化を行わずに、QRT を QML の基本的なサブルーチンとして使用して、大規模で浅く広いニューラル ネットワークのスパースなトレーニング可能なサブネットワークを効率的に見つけることができることも示します。
このアプリケーションは、このようなスパースな訓練可能なニューラル ネットワークを見つける際の宝くじ仮説を実証するための、この体制における効率的な方法を発見します。
これらの結果は、一般的に使用されている古典的なニューラル ネットワークを使用して学習タスクを高速化するための QML の道を開きます。

要約(オリジナル)

A significant challenge in the field of quantum machine learning (QML) is to establish applications of quantum computation to accelerate common tasks in machine learning such as those for neural networks. Ridgelet transform has been a fundamental mathematical tool in the theoretical studies of neural networks, but the practical applicability of ridgelet transform to conducting learning tasks was limited since its numerical implementation by conventional classical computation requires an exponential runtime $\exp(O(D))$ as data dimension $D$ increases. To address this problem, we develop a quantum ridgelet transform (QRT), which implements the ridgelet transform of a quantum state within a linear runtime $O(D)$ of quantum computation. As an application, we also show that one can use QRT as a fundamental subroutine for QML to efficiently find a sparse trainable subnetwork of large shallow wide neural networks without conducting large-scale optimization of the original network. This application discovers an efficient way in this regime to demonstrate the lottery ticket hypothesis on finding such a sparse trainable neural network. These results open an avenue of QML for accelerating learning tasks with commonly used classical neural networks.

arxiv情報

著者 Hayata Yamasaki,Sathyawageeswar Subramanian,Satoshi Hayakawa,Sho Sonoda
発行日 2023-09-11 13:00:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph, stat.ML パーマリンク