要約
量子コンピューティング (QC) は、機械学習 (ML) への応用の可能性を示しているようです。
特に、量子カーネル法 (QKM) は、教師あり ML タスクでの使用に有望な特性を示します。
ただし、カーネル メソッドの主な欠点は、トレーニング サンプルの数に応じて好ましくない 2 次スケーリングが行われることです。
現在利用可能な量子ハードウェア (NISQ デバイス) の低い量子ビット コヒーレンス時間、少数の量子ビット、高いエラー率によって課せられる制限と合わせて、工業的に適切な規模で ML で QC を使用することは現在不可能です。
QKM の潜在的なアプリケーションを改善するための小さなステップとして、量子カーネル アルゴリズムである QUACK を導入します。このアルゴリズムの時間計算量は、トレーニング中のサンプル数に線形にスケールし、推論段階のトレーニング サンプルの数には依存しません。
トレーニング プロセスでは、サンプルのカーネル エントリとクラスの中心のみが計算されます。つまり、n 個のサンプルと c 個のクラスのカーネルの最大形状は (n, c) です。
トレーニング中に、量子カーネルのパラメーターと重心の位置が繰り返し最適化されます。
推論段階では、新しいサンプルごとに回路は重心ごとに、つまり c 回だけ評価されます。
それにもかかわらず、QUACK アルゴリズムが満足のいく結果を提供し、トレーニング中に 2 次スケーリングを使用する古典的なカーネル手法と同様のレベルで実行できることを示します。
さらに、私たちの(シミュレートされた)アルゴリズムは、次元を削減することなく、784 個の特徴を持つ MNIST などの高次元データセットを処理できます。
要約(オリジナル)
Quantum computing (QC) seems to show potential for application in machine learning (ML). In particular quantum kernel methods (QKM) exhibit promising properties for use in supervised ML tasks. However, a major disadvantage of kernel methods is their unfavorable quadratic scaling with the number of training samples. Together with the limits imposed by currently available quantum hardware (NISQ devices) with their low qubit coherence times, small number of qubits, and high error rates, the use of QC in ML at an industrially relevant scale is currently impossible. As a small step in improving the potential applications of QKMs, we introduce QUACK, a quantum kernel algorithm whose time complexity scales linear with the number of samples during training, and independent of the number of training samples in the inference stage. In the training process, only the kernel entries for the samples and the centers of the classes are calculated, i.e. the maximum shape of the kernel for n samples and c classes is (n, c). During training, the parameters of the quantum kernel and the positions of the centroids are optimized iteratively. In the inference stage, for every new sample the circuit is only evaluated for every centroid, i.e. c times. We show that the QUACK algorithm nevertheless provides satisfactory results and can perform at a similar level as classical kernel methods with quadratic scaling during training. In addition, our (simulated) algorithm is able to handle high-dimensional datasets such as MNIST with 784 features without any dimensionality reduction.
arxiv情報
著者 | Kilian Tscharke,Sebastian Issel,Pascal Debus |
発行日 | 2024-07-24 15:01:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google