Quantum Hamiltonian Embedding of Images for Data Reuploading Classifiers

要約

量子コンピューティングを機械学習タスクに適用する場合、最初に考慮すべきことの 1 つは、量子機械学習モデル自体の設計です。
従来、量子機械学習アルゴリズムの設計は、量子線形代数を使用して、アルゴリズム全体ではないにしても古典アルゴリズムの重要なサブルーチンを実装するなど、古典学習アルゴリズムの「量子化」に依存しており、可能な実行を通じて量子の利点を達成しようとしています。
量子コンピューティングによってもたらされる時間加速。
しかし、最近の研究では、高速化による量子の利点が量子機械学習の正しい目標であるかどうか疑問視し始めています[1]。
量子機械学習モデルをより適切に設計するために、量子コンテキスト性などの量子システムに固有の特性を活用する研究も行われています [2]。
この論文では、古典的な深層学習アルゴリズムの設計から量子ニューラル ネットワークの設計に至るヒューリスティックと経験的証拠を組み込むことで、別のアプローチを採用します。
まず、量子ハミルトニアン データ埋め込みユニタリー [4] を使用したデータ再アップロード回路 [3] に基づいてモデルを構築します。
有名な MNIST や FashionMNIST データセットを含む画像データセットでの数値実験を通じて、私たちのモデルが量子畳み込みニューラル ネットワーク (QCNN) [5] よりも大幅に優れていることを実証しました (MNIST テスト セットで最大 40% 以上)。
次に、モデル設計プロセスと数値結果に基づいて、量子機械学習モデル、特に量子ニューラル ネットワークを設計するための 6 つの原則を示しました。

要約(オリジナル)

When applying quantum computing to machine learning tasks, one of the first considerations is the design of the quantum machine learning model itself. Conventionally, the design of quantum machine learning algorithms relies on the “quantisation’ of classical learning algorithms, such as using quantum linear algebra to implement important subroutines of classical algorithms, if not the entire algorithm, seeking to achieve quantum advantage through possible run-time accelerations brought by quantum computing. However, recent research has started questioning whether quantum advantage via speedup is the right goal for quantum machine learning [1]. Research also has been undertaken to exploit properties that are unique to quantum systems, such as quantum contextuality, to better design quantum machine learning models [2]. In this paper, we take an alternative approach by incorporating the heuristics and empirical evidences from the design of classical deep learning algorithms to the design of quantum neural networks. We first construct a model based on the data reuploading circuit [3] with the quantum Hamiltonian data embedding unitary [4]. Through numerical experiments on images datasets, including the famous MNIST and FashionMNIST datasets, we demonstrate that our model outperforms the quantum convolutional neural network (QCNN)[5] by a large margin (up to over 40% on MNIST test set). Based on the model design process and numerical results, we then laid out six principles for designing quantum machine learning models, especially quantum neural networks.

arxiv情報

著者 Peiyong Wang,Casey R. Myers,Lloyd C. L. Hollenberg,Udaya Parampalli
発行日 2024-08-01 02:19:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, quant-ph パーマリンク