要約
量子カーネル手法は、それに関連する保証のおかげで、量子機械学習における有望な手法です。
分析上の考慮事項にアクセスできることにより、量子的な利点の可能性に基づいてデータセットを事前スクリーニングする可能性も開かれます。
そうするために、以前の研究では幾何学的な差異を開発しました。これは、2 つのカーネルベースの機械学習アプローチ、最も重要なのは量子カーネルと古典的カーネルの間の近さの尺度として理解できます。
このメトリクスは、量子モデルと古典モデルの複雑さを関連付けます。
したがって、モデルの複雑さとの関係に基づいた幾何学的差異が、量子的利点の可能性以外の評価において有用なツールになり得るかどうかという疑問が生じます。
この研究では、ハイパーパラメータの選択がモデルのパフォーマンスに及ぼす影響と、古典カーネルと量子カーネルの間の一般化ギャップを調査します。
ハイパーパラメータの最適化の重要性は、古典的な機械学習でもよく知られています。
特に量子ハミルトニアン進化特徴マップの場合、入力データのスケーリングが重要であることが示されています。
ただし、投影された量子カーネルを計算する前にトレースアウトする最適な量子ビット数など、最適化する必要がある追加パラメーターが残っています。
これらのハイパーパラメータの影響を調査し、古典的に信頼できる相互検証方法と幾何学的差異に基づいて選択する方法を比較します。
11 のデータセットにわたるハイパーパラメータの徹底的な調査に基づいて、新しいデータセットを調査する際に悪用できる可能性のあるコモディティを特定しました。
さらに、私たちの発見は、幾何学的差異の適用可能性のより良い理解に貢献します。
要約(オリジナル)
Quantum kernel methods are a promising method in quantum machine learning thanks to the guarantees connected to them. Their accessibility for analytic considerations also opens up the possibility of prescreening datasets based on their potential for a quantum advantage. To do so, earlier works developed the geometric difference, which can be understood as a closeness measure between two kernel-based machine learning approaches, most importantly between a quantum kernel and classical kernel. This metric links the quantum and classical model complexities. Therefore, it raises the question of whether the geometric difference, based on its relation to model complexity, can be a useful tool in evaluations other than for the potential for quantum advantage. In this work, we investigate the effects of hyperparameter choice on the model performance and the generalization gap between classical and quantum kernels. The importance of hyperparameter optimization is well known also for classical machine learning. Especially for the quantum Hamiltonian evolution feature map, the scaling of the input data has been shown to be crucial. However, there are additional parameters left to be optimized, like the best number of qubits to trace out before computing a projected quantum kernel. We investigate the influence of these hyperparameters and compare the classically reliable method of cross validation with the method of choosing based on the geometric difference. Based on the thorough investigation of the hyperparameters across 11 datasets we identified commodities that can be exploited when examining a new dataset. In addition, our findings contribute to better understanding of the applicability of the geometric difference.
arxiv情報
著者 | Sebastian Egginger,Alona Sakhnenko,Jeanette Miriam Lorenz |
発行日 | 2023-12-06 16:51:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google