要約
量子機械学習における最近の理論的結果は、量子ニューラル ネットワーク (QNN) の表現力とその訓練可能性の間の一般的なトレードオフを実証しました。
これらの結果の当然の結果として、このような QNN はモデル サイズが指数関数的なトレーニングに時間がかかるため、古典的な機械学習モデルに対して表現力を実際に指数関数的に分離することは不可能であると考えられています。
ここでは、トランスフォーマーなどの最先端のモデルを含む古典的なニューラル ネットワーク上で、無条件に証明可能な任意の一定次数の多項式メモリ分離を示す、効率的にトレーニング可能な QNN の階層を構築することで、これらの否定的な結果を回避します。
古典的なシーケンス モデリング タスク。
導入されたクラスの QNN の各ユニット セルは一定のゲート複雑度しか持たないため、この構築は計算効率も優れています。
我々は、文脈性 (非公式には、意味論的あいまいさの定量的概念) が表現力分離の原因であることを示し、この性質を持つ他の学習タスクが量子学習アルゴリズムを使用するための自然な設定である可能性があることを示唆しています。
要約(オリジナル)
Recent theoretical results in quantum machine learning have demonstrated a general trade-off between the expressive power of quantum neural networks (QNNs) and their trainability; as a corollary of these results, practical exponential separations in expressive power over classical machine learning models are believed to be infeasible as such QNNs take a time to train that is exponential in the model size. We here circumvent these negative results by constructing a hierarchy of efficiently trainable QNNs that exhibit unconditionally provable, polynomial memory separations of arbitrary constant degree over classical neural networks — including state-of-the-art models, such as Transformers — in performing a classical sequence modeling task. This construction is also computationally efficient, as each unit cell of the introduced class of QNNs only has constant gate complexity. We show that contextuality — informally, a quantitative notion of semantic ambiguity — is the source of the expressivity separation, suggesting that other learning tasks with this property may be a natural setting for the use of quantum learning algorithms.
arxiv情報
著者 | Eric R. Anschuetz,Xun Gao |
発行日 | 2024-12-19 16:05:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google