Arbitrary Polynomial Separations in Trainable Quantum Machine Learning

要約

量子機械学習における最近の理論的結果は、量子ニューラル ネットワーク (QNN) の表現力とその訓練可能性の間の一般的なトレードオフを実証しました。
これらの結果の当然の結果として、このような QNN はモデル サイズが指数関数的なトレーニングに時間がかかるため、古典的な機械学習モデルに対して表現力を実際に指数関数的に分離することは不可能であると考えられています。
ここでは、古典的なシーケンスモデリングタスクを実行する際に、古典的なニューラルネットワーク上で無条件に証明可能な任意の一定次数の多項式メモリ分離を示す、効率的にトレーニング可能なQNNの階層を構築することで、これらの否定的な結果を回避します。
さらに、導入されたクラスの QNN の各単位セルは計算効率が高く、量子デバイス上で一定時間で実装可能です。
私たちが分離を証明する古典的なネットワークには、リカレント ニューラル ネットワークやトランスフォーマーなどのよく知られた例が含まれます。
我々は、量子文脈性が表現力分離の原因であることを示し、長時間相関を伴う他の古典的な系列学習問題が、量子機械学習における実用的な利点が存在する領域である可能性があることを示唆しています。

要約(オリジナル)

Recent theoretical results in quantum machine learning have demonstrated a general trade-off between the expressive power of quantum neural networks (QNNs) and their trainability; as a corollary of these results, practical exponential separations in expressive power over classical machine learning models are believed to be infeasible as such QNNs take a time to train that is exponential in the model size. We here circumvent these negative results by constructing a hierarchy of efficiently trainable QNNs that exhibit unconditionally provable, polynomial memory separations of arbitrary constant degree over classical neural networks in performing a classical sequence modeling task. Furthermore, each unit cell of the introduced class of QNNs is computationally efficient, implementable in constant time on a quantum device. The classical networks we prove a separation over include well-known examples such as recurrent neural networks and Transformers. We show that quantum contextuality is the source of the expressivity separation, suggesting that other classical sequence learning problems with long-time correlations may be a regime where practical advantages in quantum machine learning may exist.

arxiv情報

著者 Eric R. Anschuetz,Xun Gao
発行日 2024-02-13 17:12:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク