An analytic theory for the dynamics of wide quantum neural networks

要約

パラメーター化された量子回路は、量子ニューラル ネットワークとして使用でき、学習問題に対処するためのトレーニングを行うと、従来の対応するネットワークよりも優れたパフォーマンスを発揮する可能性があります。
今日まで、実際の問題に対するパフォーマンスに関する結果の多くは、本質的にヒューリスティックです。
特に、量子ニューラル ネットワークのトレーニングの収束率は完全には理解されていません。
ここでは、変分量子機械学習モデルのクラスのトレーニング エラーの勾配降下のダイナミクスを分析します。
広い量子ニューラル ネットワークを、多数の量子ビットと変分パラメーターの限界におけるパラメーター化された量子回路として定義します。
次に、損失関数の平均的な動作を捉える単純な分析式を見つけ、調査結果の結果について説明します。
たとえば、ランダム量子回路の場合、システムのパラメーターの関数として、残差トレーニング エラーの指数関数的減衰を予測し、特徴付けます。
最後に、数値実験で解析結果を検証します。

要約(オリジナル)

Parameterized quantum circuits can be used as quantum neural networks and have the potential to outperform their classical counterparts when trained for addressing learning problems. To date, much of the results on their performance on practical problems are heuristic in nature. In particular, the convergence rate for the training of quantum neural networks is not fully understood. Here, we analyze the dynamics of gradient descent for the training error of a class of variational quantum machine learning models. We define wide quantum neural networks as parameterized quantum circuits in the limit of a large number of qubits and variational parameters. We then find a simple analytic formula that captures the average behavior of their loss function and discuss the consequences of our findings. For example, for random quantum circuits, we predict and characterize an exponential decay of the residual training error as a function of the parameters of the system. We finally validate our analytic results with numerical experiments.

arxiv情報

著者 Junyu Liu,Khadijeh Najafi,Kunal Sharma,Francesco Tacchino,Liang Jiang,Antonio Mezzacapo
発行日 2023-03-10 18:47:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, quant-ph, stat.ML パーマリンク