Classical-to-quantum convolutional neural network transfer learning

要約

量子畳み込みニューラル ネットワーク (QCNN) を使用した機械学習は、量子データ分類と古典データ分類の両方で成功を収めています。
以前の研究では、QCNN は、少数のパラメーター領域での同じトレーニング条件下で、古典的な対応物よりも高い分類精度を達成しました。
ただし、量子回路のサイズには制限があるため、大規模な量子モデルの一般的なパフォーマンスを調べるのは困難ですが、量子回路は近い将来に確実に実装される可能性があります。
ノイズの多い中規模量子時代において小型 QCNN を最大限に活用するための効果的な戦略として転移学習を提案します。
古典から量子への転移学習フレームワークでは、QCNN は事前学習された古典畳み込みニューラル ネットワーク (CNN) を利用することで、大規模な量子回路を必要とせずに複雑な分類問題を解決できます。
私たちは、古典的な CNN が Fashion-MNIST データでトレーニングされる転移学習のもとで、MNIST データ分類のための量子畳み込みとプーリング演算のさまざまなセットを使用して QCNN モデルの数値シミュレーションを実行します。
結果は、古典 CNN から量子 CNN への転移学習が、同様のトレーニング条件下で純粋に古典的な転移学習モデルよりもかなり優れたパフォーマンスを発揮することを示しています。

要約(オリジナル)

Machine learning using quantum convolutional neural networks (QCNNs) has demonstrated success in both quantum and classical data classification. In previous studies, QCNNs attained a higher classification accuracy than their classical counterparts under the same training conditions in the few-parameter regime. However, the general performance of large-scale quantum models is difficult to examine because of the limited size of quantum circuits, which can be reliably implemented in the near future. We propose transfer learning as an effective strategy for utilizing small QCNNs in the noisy intermediate-scale quantum era to the full extent. In the classical-to-quantum transfer learning framework, a QCNN can solve complex classification problems without requiring a large-scale quantum circuit by utilizing a pre-trained classical convolutional neural network (CNN). We perform numerical simulations of QCNN models with various sets of quantum convolution and pooling operations for MNIST data classification under transfer learning, in which a classical CNN is trained with Fashion-MNIST data. The results show that transfer learning from classical to quantum CNN performs considerably better than purely classical transfer learning models under similar training conditions.

arxiv情報

著者 Juhyeon Kim,Joonsuk Huh,Daniel K. Park
発行日 2023-09-28 15:34:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク