要約
量子ニューラルネットワーク(QNN)は、データ依存の入力を持つパラメータ化された量子回路を用い、期待値を評価することで出力を生成する。この期待値を計算するためには、回路を繰り返し評価する必要があるため、誤差のない量子コンピュータでも基本的な有限サンプリングノイズが発生する。そこで、量子モデルの学習時に期待値の分散を小さくする分散正則化という手法を導入することで、このノイズを低減します。この手法は、QNNが適切に構築されていれば、追加の回路評価は不要である。また、勾配回路評価における測定回数が減少することも実証された。この正則化手法は、多関数の回帰についてベンチマークを行った。我々の例では、平均で1桁の分散を下げ、QNNのノイズレベルを大幅に下げることにつながることを示す。最後に、実際の量子デバイスでQNNのトレーニングを行い、エラー緩和の影響を評価する。ここでは、分散が減少した結果、勾配評価におけるショット数が減少したことのみにより、最適化が実用的であることがわかった。
要約(オリジナル)
Quantum neural networks (QNNs) use parameterized quantum circuits with data-dependent inputs and generate outputs through the evaluation of expectation values. Calculating these expectation values necessitates repeated circuit evaluations, thus introducing fundamental finite-sampling noise even on error-free quantum computers. We reduce this noise by introducing the variance regularization, a technique for reducing the variance of the expectation value during the quantum model training. This technique requires no additional circuit evaluations if the QNN is properly constructed. Our empirical findings demonstrate the reduced variance speeds up the training and lowers the output noise as well as decreases the number of measurements in the gradient circuit evaluation. This regularization method is benchmarked on the regression of multiple functions. We show that in our examples, it lowers the variance by an order of magnitude on average and leads to a significantly reduced noise level of the QNN. We finally demonstrate QNN training on a real quantum device and evaluate the impact of error mitigation. Here, the optimization is practical only due to the reduced number shots in the gradient evaluation resulting from the reduced variance.
arxiv情報
著者 | David Kreplin,Marco Roth |
発行日 | 2023-06-02 15:59:47+00:00 |
arxivサイト | arxiv_id(pdf) |