$\mathbb{Z}_2\times \mathbb{Z}_2$ Equivariant Quantum Neural Networks: Benchmarking against Classical Neural Networks

要約

この論文では、等変量子ニューラル ネットワーク (EQNN) と量子ニューラル ネットワーク (QNN) のパフォーマンスの包括的な比較分析を、古典的な対応物である等変ニューラル ネットワーク (ENN) とディープ ニューラル ネットワーク (DNN) と並べて示します。
バイナリ分類タスクの 2 つのおもちゃの例を使用して、モデルの複雑さ (パラメーターの数で測定) とトレーニング データ セットのサイズに焦点を当てて、各ネットワークのパフォーマンスを評価します。
私たちの結果は、$\mathbb{Z}_2\times \mathbb{Z}_2$ EQNN と QNN が、より小さなパラメーター セットと控えめなトレーニング データ サンプルに対して優れたパフォーマンスを提供することを示しています。

要約(オリジナル)

This paper presents a comprehensive comparative analysis of the performance of Equivariant Quantum Neural Networks (EQNN) and Quantum Neural Networks (QNN), juxtaposed against their classical counterparts: Equivariant Neural Networks (ENN) and Deep Neural Networks (DNN). We evaluate the performance of each network with two toy examples for a binary classification task, focusing on model complexity (measured by the number of parameters) and the size of the training data set. Our results show that the $\mathbb{Z}_2\times \mathbb{Z}_2$ EQNN and the QNN provide superior performance for smaller parameter sets and modest training data samples.

arxiv情報

著者 Zhongtian Dong,Marçal Comajoan Cara,Gopal Ramesh Dahale,Roy T. Forestano,Sergei Gleyzer,Daniel Justice,Kyoungchul Kong,Tom Magorsch,Konstantin T. Matchev,Katia Matcheva,Eyup B. Unlu
発行日 2023-11-30 17:41:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-ph, quant-ph, stat.ML パーマリンク