Concept learning of parameterized quantum models from limited measurements

要約

量子状態のオブザーバブルの期待値の古典的な学習は、量子状態またはチャネルの学習の自然な変形です。
学習理論のフレームワークは、そのような統計量を学習するために必要なサンプルの複雑さとサンプルあたりの測定ショットの数を確立しますが、これら 2 つの変数間の相互作用はこれまで適切に定量化されていませんでした。
この研究では、古典的なモデリングで量子測定の確率的性質を考慮し、単一の統一学習フレームワークの下でこれらの量について議論します。
学習アルゴリズムのパフォーマンスに対する 2 つの変数の非対称効果と相互作用も定量化する、パラメーター化された量子モデルの学習に対する証明可能な保証を提供します。
これらの結果は、サンプル サイズを増やすと古典的なマシンの学習パフォーマンスが向上する一方で、単発推定であっても、測定値の増加による改善は一定の係数を超えると漸近的に些細なものになることを示しています。
さらに、フレームワークと理論的保証を適用して、パラメータ化された量子回路モデルの古典的な代理に対する測定ノイズの影響を研究します。
私たちの研究は、量子システムの古典的な学習における有限測定ノイズの操作上の影響を分析するための新しいツールを提供します。

要約(オリジナル)

Classical learning of the expectation values of observables for quantum states is a natural variant of learning quantum states or channels. While learning-theoretic frameworks establish the sample complexity and the number of measurement shots per sample required for learning such statistical quantities, the interplay between these two variables has not been adequately quantified before. In this work, we take the probabilistic nature of quantum measurements into account in classical modelling and discuss these quantities under a single unified learning framework. We provide provable guarantees for learning parameterized quantum models that also quantify the asymmetrical effects and interplay of the two variables on the performance of learning algorithms. These results show that while increasing the sample size enhances the learning performance of classical machines, even with single-shot estimates, the improvements from increasing measurements become asymptotically trivial beyond a constant factor. We further apply our framework and theoretical guarantees to study the impact of measurement noise on the classical surrogation of parameterized quantum circuit models. Our work provides new tools to analyse the operational influence of finite measurement noise in the classical learning of quantum systems.

arxiv情報

著者 Beng Yee Gan,Po-Wei Huang,Elies Gil-Fuster,Patrick Rebentrost
発行日 2024-08-09 15:07:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph, stat.ML パーマリンク