要約
量子機械学習が困難な問題を解決するには、強力で柔軟で効率的にトレーニング可能なモデルが必要です。
この研究では、訓練可能なユニタリーのセットに対するランダム化を組み込んだ学習モデルである密度量子ニューラル ネットワークを紹介します。
これらのモデルは、パラメーター化された量子回路を使用して量子ニューラル ネットワークを一般化し、特に量子ハードウェアでの表現可能性と効率的なトレーニング可能性の間のトレードオフを可能にします。
最近提案された 2 つのモデル ファミリに形式主義を適用することで、形式主義の柔軟性を示します。
1 つ目は可換ブロック量子ニューラル ネットワーク (QNN) で、効率的にトレーニング可能ですが、表現力が制限される可能性があります。
2 つ目は直交 (ハミング重み保存) 量子ニューラル ネットワークで、データに対して明確に定義された解釈可能な変換を提供しますが、量子デバイスで大規模にトレーニングするのは困難です。
密度通勤 QNN は勾配の複雑さのオーバーヘッドを最小限に抑えて容量を向上させ、密度直交ニューラル ネットワークは、パフォーマンスの損失を最小限またはまったく伴わずに二次から定数への勾配クエリの利点を実現します。
私たちは、結果を裏付けるために、ハイパーパラメータ最適化を使用して、合成並進不変データと MNIST 画像データに対して数値実験を実行します。
最後に、ポスト変分量子ニューラル ネットワーク、測定ベースの量子機械学習、およびドロップアウト メカニズムとの関係について説明します。
要約(オリジナル)
Quantum machine learning requires powerful, flexible and efficiently trainable models to be successful in solving challenging problems. In this work, we present density quantum neural networks, a learning model incorporating randomisation over a set of trainable unitaries. These models generalise quantum neural networks using parameterised quantum circuits, and allow a trade-off between expressibility and efficient trainability, particularly on quantum hardware. We demonstrate the flexibility of the formalism by applying it to two recently proposed model families. The first are commuting-block quantum neural networks (QNNs) which are efficiently trainable but may be limited in expressibility. The second are orthogonal (Hamming-weight preserving) quantum neural networks which provide well-defined and interpretable transformations on data but are challenging to train at scale on quantum devices. Density commuting QNNs improve capacity with minimal gradient complexity overhead, and density orthogonal neural networks admit a quadratic-to-constant gradient query advantage with minimal to no performance loss. We conduct numerical experiments on synthetic translationally invariant data and MNIST image data with hyperparameter optimisation to support our findings. Finally, we discuss the connection to post-variational quantum neural networks, measurement-based quantum machine learning and the dropout mechanism.
arxiv情報
著者 | Brian Coyle,El Amine Cherrat,Nishant Jain,Natansh Mathur,Snehal Raj,Skander Kazdaghli,Iordanis Kerenidis |
発行日 | 2024-05-30 16:40:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google