要約
タイトル:広範な量子ニューラルネットワークのダイナミクスの解析理論
要約:
-パラメータ化量子回路は量子ニューラルネットワークとして使用でき、学習問題に対処するために訓練された場合、その古典的な相当物を上回る潜在的な能力を持っています。
-現在まで、実用的な問題におけるその効果に関する結果の多くは、漠然とした性質を持っている。
-特に、量子ニューラルネットワークのトレーニングの収束速度は完全に理解されていません。
-ここでは、変分量子機械学習モデルのトレーニングエラーの勾配降下のダイナミクスを分析します。
-広範な量子ニューラルネットワークを、量子ビット数と変分パラメータの数が多い限りのパラメータ化量子回路として定義します。
-そして、平均的な損失関数の振る舞いを捉える単純な解析式を見つけ、その結果について議論します。
-たとえば、ランダム量子回路の場合、システムのパラメータに対する残差トレーニングエラーの指数関数的な減衰を予測・特徴づけます。
-最後に、私たちは数値実験で私たちの解析的な結果を検証します。
要約(オリジナル)
Parameterized quantum circuits can be used as quantum neural networks and have the potential to outperform their classical counterparts when trained for addressing learning problems. To date, much of the results on their performance on practical problems are heuristic in nature. In particular, the convergence rate for the training of quantum neural networks is not fully understood. Here, we analyze the dynamics of gradient descent for the training error of a class of variational quantum machine learning models. We define wide quantum neural networks as parameterized quantum circuits in the limit of a large number of qubits and variational parameters. We then find a simple analytic formula that captures the average behavior of their loss function and discuss the consequences of our findings. For example, for random quantum circuits, we predict and characterize an exponential decay of the residual training error as a function of the parameters of the system. We finally validate our analytic results with numerical experiments.
arxiv情報
著者 | Junyu Liu,Khadijeh Najafi,Kunal Sharma,Francesco Tacchino,Liang Jiang,Antonio Mezzacapo |
発行日 | 2023-04-12 01:05:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI