Exponentially Improved Efficient Machine Learning for Quantum Many-body States with Provable Guarantees

要約

【タイトル】証明可能な保証を持つ量子多体状態の機械学習の指数関数的に改善された効率

【要約】
– 古典的なアルゴリズムにとって、量子多体系の基底状態やその特性を解決することは、一般的に困難なタスクである。
– 物理的パラメーターのm次元空間上に定義されるHamiltonianの一族に対しては、状態のサンプルセット(サイズN)を効率的に準備して測定することができれば、任意のパラメーター構成における基底状態およびその特性を、指定された予測誤差εまで、機械学習プロトコルによって予測することができる。
– 先行研究では、そのような汎化のための厳密な保証が証明された。しかし、一般的には、汎用隙間のあるHamiltoniansに対して、サンプル数に指数関数的にスケーリングがかかっている($N = m^{ {\cal{O}} \left(\frac{1}{\varepsilon} \right) }$)。
– この研究では、異なるシナリオを考え、$m$が有限の定数である場合、予測誤差のスケーリングが中心的な関心事である場合を考慮する。
– 物理的制約を利用し、密度行列の予測に対して正の良いカーネルを活用することで、サンプルの複雑性を指数関数的に改善し、 $N = \mathrm{poly} \left(\varepsilon^{-1}, n, \log \frac{1}{\delta}\right)$ のサンプル複雑性を厳密に獲得する。
– さらに、強い局所性の仮定を持つ基底状態特性の学習に限定される場合、サンプル数を $N = \mathrm{poly} \left(\varepsilon^{-1}, \log \frac{n}{\delta}\right)$ にさらに削減できる。
– この研究により、既存の先行研究を改善し、拡張するために重要で決定的な結果が提示された。

要約(オリジナル)

Solving the ground state and the ground-state properties of quantum many-body systems is generically a hard task for classical algorithms. For a family of Hamiltonians defined on an $m$-dimensional space of physical parameters, the ground state and its properties at an arbitrary parameter configuration can be predicted via a machine learning protocol up to a prescribed prediction error $\varepsilon$, provided that a sample set (of size $N$) of the states can be efficiently prepared and measured. In a recent work [Huang et al., Science 377, eabk3333 (2022)], a rigorous guarantee for such an generalization was proved. Unfortunately, an exponential scaling, $N = m^{ {\cal{O}} \left(\frac{1}{\varepsilon} \right) }$, was found to be universal for generic gapped Hamiltonians. This result applies to the situation where the dimension of the parameter space is large while the scaling with the accuracy is not an urgent factor, not entering the realm of more precise learning and prediction. In this work, we consider an alternative scenario, where $m$ is a finite, not necessarily large constant while the scaling with the prediction error becomes the central concern. By exploiting physical constraints and positive good kernels for predicting the density matrix, we rigorously obtain an exponentially improved sample complexity, $N = \mathrm{poly} \left(\varepsilon^{-1}, n, \log \frac{1}{\delta}\right)$, where $\mathrm{poly}$ denotes a polynomial function; $n$ is the number of qubits in the system, and ($1-\delta$) is the probability of success. Moreover, if restricted to learning ground-state properties with strong locality assumptions, the number of samples can be further reduced to $N = \mathrm{poly} \left(\varepsilon^{-1}, \log \frac{n}{\delta}\right)$. This provably rigorous result represents a significant improvement and an indispensable extension of the existing work.

arxiv情報

著者 Yanming Che,Clemens Gneiting,Franco Nori
発行日 2023-04-10 02:22:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, physics.data-an, quant-ph パーマリンク