A Hybrid Quantum-Classical Approach based on the Hadamard Transform for the Convolutional Layer

要約

この論文では、ハイブリッド量子古典コンピューティングのための新しいアダマール変換 (HT) ベースのニューラル ネットワーク層を提案します。
アダマール変換ドメインに通常の畳み込み層を実装します。
このアイデアは、2 つのベクトル間の二項畳み込みが HT 表現の要素ごとの乗算と同等であると述べる HT 畳み込み定理に基づいています。
HT の計算は、アダマール ゲートを各量子ビットに個別に適用するだけなので、私たちが提案する層の HT 計算は量子コンピューターで実装できます。
通常の Conv2D 層と比較して、提案された HT パーセプトロン層は計算効率が高くなります。
同じ数のトレーニング可能なパラメータと 99.26\% のテスト精度を持つ CNN と比較すると、MNIST データセットでは 57.1\% の MAC が削減され、HT ネットワークは 99.31\% のテスト精度に達します。
また、ImageNet-1K の実験では、HT ベースの ResNet-50 は、11.5\% 少ないパラメータと 12.6\% 少ない MAC を使用して、ベースライン ResNet-50 の精度を 0.59\% センタークロップ トップ 1 の精度で上回っています。

要約(オリジナル)

In this paper, we propose a novel Hadamard Transform (HT)-based neural network layer for hybrid quantum-classical computing. It implements the regular convolutional layers in the Hadamard transform domain. The idea is based on the HT convolution theorem which states that the dyadic convolution between two vectors is equivalent to the element-wise multiplication of their HT representation. Computing the HT is simply the application of a Hadamard gate to each qubit individually, so the HT computations of our proposed layer can be implemented on a quantum computer. Compared to the regular Conv2D layer, the proposed HT-perceptron layer is computationally more efficient. Compared to a CNN with the same number of trainable parameters and 99.26\% test accuracy, our HT network reaches 99.31\% test accuracy with 57.1\% MACs reduced in the MNIST dataset; and in our ImageNet-1K experiments, our HT-based ResNet-50 exceeds the accuracy of the baseline ResNet-50 by 0.59\% center-crop top-1 accuracy using 11.5\% fewer parameters with 12.6\% fewer MACs.

arxiv情報

著者 Hongyi Pan,Xin Zhu,Salih Atici,Ahmet Enis Cetin
発行日 2023-05-31 17:20:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.SP パーマリンク