Quantum Lazy Training

要約

タイトル:量子的な怠惰なトレーニング
要約:

– 深層学習を用いた過剰パラメータモデル関数のトレーニングにおいて、パラメータが大幅に変化せず、初期値に近い状態が続く現象があります。これを怠惰なトレーニングと呼びます。
– 怠惰な領域では、モデル関数の初期パラメータ周辺の線形近似は、その関数の性質を再現します。この線形近似によって、モデルのトレーニングパフォーマンスに関与する接線カーネルが導かれます。
– 大幅な幅を持つ(古典的)ニューラルネットワークの場合、怠惰なトレーニングが発生します。
– この論文では、量子力学的トレーニングに関連するジオメトリカルなローカルのパラメータ付き量子回路(parameterized quantum circuits)のトレーニングが、大量のキュビットの場合に怠惰な領域に入ることが示されました。
– その上、数値シミュレーションを通じて、量子回路のパラメータの変化のレートと、連動する量子モデル関数の線形近似の精度についての界を導出しました。それらは、キュビット数が増えるにつれて0に漸近的になることが証明されました。

要約(オリジナル)

In the training of over-parameterized model functions via gradient descent, sometimes the parameters do not change significantly and remain close to their initial values. This phenomenon is called lazy training, and motivates consideration of the linear approximation of the model function around the initial parameters. In the lazy regime, this linear approximation imitates the behavior of the parameterized function whose associated kernel, called the tangent kernel, specifies the training performance of the model. Lazy training is known to occur in the case of (classical) neural networks with large widths. In this paper, we show that the training of geometrically local parameterized quantum circuits enters the lazy regime for large numbers of qubits. More precisely, we prove bounds on the rate of changes of the parameters of such a geometrically local parameterized quantum circuit in the training process, and on the precision of the linear approximation of the associated quantum model function; both of these bounds tend to zero as the number of qubits grows. We support our analytic results with numerical simulations.

arxiv情報

著者 Erfan Abedi,Salman Beigi,Leila Taghavi
発行日 2023-04-21 02:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, quant-ph パーマリンク