On the similarity of bandwidth-tuned quantum kernels and classical kernels

要約

量子カーネル(QK)は、量子機械学習アプリケーションで広く使用されています。
しかし、古典的なデータセットの古典的な機械学習方法を超える可能性は不確実です。
この制限は、訓練可能性と一般化の両方を損なう可能性のある指数関数的濃度現象に起因する可能性があります。
これを緩和するための一般的な戦略は、帯域幅調整です。これには、一般化を改善するための量子モデルのデータポイントの再スケーリングが含まれます。
この作業では、最適な帯域幅の調整により、radial骨基底関数(RBF)カーネルによく似ており、古典的な方法よりも量子優位性がないQKSが得られることを数値的に実証します。
さらに、最適な帯域幅調整パラメーターのサイズがQKSをさらに簡素化し、rbfカーネルの低次のテイラー近似に対応する多項式カーネルのように振る舞うことを明らかにします。
これは、いくつかの分類データセットにわたって回路をエンコードするさまざまなデータを使用して、忠実度の量子カーネルと投影量子カーネルについて徹底的に調査します。
数値的証拠を提供し、帯域幅のチューニングが分類タスクの主要な量にどのように影響するかを解明する簡単な分析モデルを導き出します。
全体として、私たちの発見は、QKメソッドを古典的にシミュレート可能にするメカニズムに光を当てています。

要約(オリジナル)

Quantum kernels (QK) are widely used in quantum machine learning applications; yet, their potential to surpass classical machine learning methods on classical datasets remains uncertain. This limitation can be attributed to the exponential concentration phenomenon, which can impair both trainability and generalization. A common strategy to alleviate this is bandwidth tuning, which involves rescaling data points in the quantum model to improve generalization. In this work, we numerically demonstrate that optimal bandwidth tuning results in QKs that closely resemble radial basis function (RBF) kernels, leading to a lack of quantum advantage over classical methods. Moreover, we reveal that the size of optimal bandwidth tuning parameters further simplifies QKs, causing them to behave like polynomial kernels, corresponding to a low-order Taylor approximation of a RBF kernel. We thoroughly investigate this for fidelity quantum kernels and projected quantum kernels using various data encoding circuits across several classification datasets. We provide numerical evidence and derive a simple analytical model that elucidates how bandwidth tuning influences key quantities in classification tasks. Overall, our findings shed light on the mechanisms that render QK methods classically simulatable.

arxiv情報

著者 Roberto Flórez Ablan,Marco Roth,Jan Schnabel
発行日 2025-03-07 17:28:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク