要約
この論文では、等変量子ニューラル ネットワーク (EQNN) と量子ニューラル ネットワーク (QNN) のパフォーマンスの包括的な比較分析を、古典的な対応物である等変ニューラル ネットワーク (ENN) とディープ ニューラル ネットワーク (DNN) と並べて示します。
バイナリ分類タスクの 2 つのおもちゃの例を使用して、モデルの複雑さ (パラメーターの数で測定) とトレーニング データ セットのサイズに焦点を当てて、各ネットワークのパフォーマンスを評価します。
私たちの結果は、$\mathbb{Z}_2\times \mathbb{Z}_2$ EQNN と QNN が、より小さなパラメーター セットと控えめなトレーニング データ サンプルに対して優れたパフォーマンスを提供することを示しています。
要約(オリジナル)
This paper presents a comprehensive comparative analysis of the performance of Equivariant Quantum Neural Networks (EQNN) and Quantum Neural Networks (QNN), juxtaposed against their classical counterparts: Equivariant Neural Networks (ENN) and Deep Neural Networks (DNN). We evaluate the performance of each network with two toy examples for a binary classification task, focusing on model complexity (measured by the number of parameters) and the size of the training data set. Our results show that the $\mathbb{Z}_2\times \mathbb{Z}_2$ EQNN and the QNN provide superior performance for smaller parameter sets and modest training data samples.
arxiv情報
著者 | Zhongtian Dong,Marçal Comajoan Cara,Gopal Ramesh Dahale,Roy T. Forestano,Sergei Gleyzer,Daniel Justice,Kyoungchul Kong,Tom Magorsch,Konstantin T. Matchev,Katia Matcheva,Eyup B. Unlu |
発行日 | 2023-11-30 17:41:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google