On Quantum Perceptron Learning via Quantum Search

要約

量子機械学習への関心が高まっているため、Perceptronは、従来の機械学習における基本的な構成要素である – 量子の利点を調査するための貴重なモデルとして浮上しています。
Groverの検索に基づいた2つの量子パーセプトロンアルゴリズムは、Arxiv:1602.04799で開発され、トレーニングを加速し、Perceptron学習の統計効率を向上させました。
このペーパーでは、Arxiv:1602.04799の定理2の証拠の間違いを指摘し、修正します。
具体的には、データスケールを$ \ omega(\ gamma^{d})$として完全に分類する$ d $ dimensional Hyperplaneの正規分布からサンプリングする確率は、$ \ theta({\ gamma})$、$ \ gamma $はマージンです。
次に、Perceptron学習のコンテキストで、2つの確立された線形プログラミングアルゴリズム(楕円形メソッドと切断平面ランダムウォークアルゴリズム)を再検討し、量子検索アルゴリズムをレバレッジして全体的な複雑さを高める方法を示します。
具体的には、両方のアルゴリズムは、Groverのアルゴリズムの結果として、データポイント$ n $の数のデータポイント数でサブ線形スピードアップ$ o(\ sqrt {n})$を獲得し、Quantum Walk Searchを採用しているプレーンランダムウォークアルゴリズムを切断するために追加の$ o(d^{1.5})$ speed-upが可能です。

要約(オリジナル)

With the growing interest in quantum machine learning, the perceptron — a fundamental building block in traditional machine learning — has emerged as a valuable model for exploring quantum advantages. Two quantum perceptron algorithms based on Grover’s search, were developed in arXiv:1602.04799 to accelerate training and improve statistical efficiency in perceptron learning. This paper points out and corrects a mistake in the proof of Theorem 2 in arXiv:1602.04799. Specifically, we show that the probability of sampling from a normal distribution for a $D$-dimensional hyperplane that perfectly classifies the data scales as $\Omega(\gamma^{D})$ instead of $\Theta({\gamma})$, where $\gamma$ is the margin. We then revisit two well-established linear programming algorithms — the ellipsoid method and the cutting plane random walk algorithm — in the context of perceptron learning, and show how quantum search algorithms can be leveraged to enhance the overall complexity. Specifically, both algorithms gain a sub-linear speed-up $O(\sqrt{N})$ in the number of data points $N$ as a result of Grover’s algorithm and an additional $O(D^{1.5})$ speed-up is possible for cutting plane random walk algorithm employing quantum walk search.

arxiv情報

著者 Xiaoyu Sun,Mathieu Roget,Giuseppe Di Molfetta,Hachem Kadri
発行日 2025-03-21 16:57:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph, stat.ML パーマリンク