要約
量子ニューラル ネットワーク (QNN) は、データ依存の入力を持つパラメーター化された量子回路を使用し、期待値の評価を通じて出力を生成します。
これらの期待値を計算するには回路評価を繰り返す必要があるため、エラーのない量子コンピューターであっても基本的な有限サンプリング ノイズが発生します。
このノイズは、量子モデルのトレーニング中に期待値の分散を低減する手法である分散正則化を導入することで低減します。
QNN が適切に構築されていれば、この手法では追加の回路評価は必要ありません。
私たちの経験的発見は、分散の減少によりトレーニングが高速化され、出力ノイズが低下するだけでなく、勾配回路の必要な評価の数が減少することを示しています。
この正則化方法は、複数の関数の回帰でベンチマークされます。
この例では、平均して分散が 1 桁減少し、QNN のノイズ レベルが大幅に低下することがわかります。
最後に、実際の量子デバイス上で QNN トレーニングを実証し、エラー軽減の影響を評価します。
ここで、最適化は、分散の減少による勾配評価の必要なショット数の減少によってのみ実現可能です。
要約(オリジナル)
Quantum neural networks (QNNs) use parameterized quantum circuits with data-dependent inputs and generate outputs through the evaluation of expectation values. Calculating these expectation values necessitates repeated circuit evaluations, thus introducing fundamental finite-sampling noise even on error-free quantum computers. We reduce this noise by introducing the variance regularization, a technique for reducing the variance of the expectation value during the quantum model training. This technique requires no additional circuit evaluations if the QNN is properly constructed. Our empirical findings demonstrate the reduced variance speeds up the training and lowers the output noise as well as decreases the number of necessary evaluations of gradient circuits. This regularization method is benchmarked on the regression of multiple functions. We show that in our examples, it lowers the variance by an order of magnitude on average and leads to a significantly reduced noise level of the QNN. We finally demonstrate QNN training on a real quantum device and evaluate the impact of error mitigation. Here, the optimization is feasible only due to the reduced number of necessary shots in the gradient evaluation resulting from the reduced variance.
arxiv情報
著者 | David A. Kreplin,Marco Roth |
発行日 | 2023-07-21 12:16:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google