要約
この研究では、量子多体物理学の基本的なタスク、つまり量子ハミルトニアンの基底状態とその特性を見つけて学習することを検討します。
最近の研究では、データから学習することによって、幾何学的に局所的な観測量の合計の基底状態の期待値を予測するタスクが研究されています。
短距離ギャップ ハミルトニアンの場合、量子ビット数が対数であり、誤差が準多項式であるサンプル複雑さが得られました。
ここでは、分子および原子システムにおける長距離相互作用の関連性を動機として、これらの結果をハミルトニアンと観測量の両方に関する局所的な要件を超えて拡張します。
システムの次元の 2 倍を超える指数を持つべき乗則として減衰する相互作用の場合、量子ビット数に関して同じ効率的な対数スケーリングが回復しますが、誤差への依存性は指数関数的に悪化します。
さらに、相互作用ハイパーグラフの自己同型群の下で等変な学習アルゴリズムはサンプルの複雑さの削減を達成し、特に周期的な境界条件を持つシステムにおける局所観測量の合計を学習するためのサンプル数が一定になることを示します。
最大 $128$ 量子ビットを備えた $1$D の長距離システムと無秩序なシステムの DMRG シミュレーションから学習することで、実際の効率的なスケーリングを実証します。
最後に、中心極限定理から生じる全球観測量の期待値の集中の分析を提供し、その結果、予測精度が向上します。
要約(オリジナル)
In this work, we consider a fundamental task in quantum many-body physics – finding and learning ground states of quantum Hamiltonians and their properties. Recent works have studied the task of predicting the ground state expectation value of sums of geometrically local observables by learning from data. For short-range gapped Hamiltonians, a sample complexity that is logarithmic in the number of qubits and quasipolynomial in the error was obtained. Here we extend these results beyond the local requirements on both Hamiltonians and observables, motivated by the relevance of long-range interactions in molecular and atomic systems. For interactions decaying as a power law with exponent greater than twice the dimension of the system, we recover the same efficient logarithmic scaling with respect to the number of qubits, but the dependence on the error worsens to exponential. Further, we show that learning algorithms equivariant under the automorphism group of the interaction hypergraph achieve a sample complexity reduction, leading in particular to a constant number of samples for learning sums of local observables in systems with periodic boundary conditions. We demonstrate the efficient scaling in practice by learning from DMRG simulations of $1$D long-range and disordered systems with up to $128$ qubits. Finally, we provide an analysis of the concentration of expectation values of global observables stemming from the central limit theorem, resulting in increased prediction accuracy.
arxiv情報
著者 | Štěpán Šmíd,Roberto Bondesan |
発行日 | 2024-01-31 14:08:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google