要約
量子機械学習 (QML) は、量子カーネル マシンのようなアプローチを通じて大きな注目を集めています。
これらの方法には大きな期待が寄せられていますが、その量子の性質には固有の課題があります。
大きな課題の 1 つは、量子デバイス上で実行される回路実行の回数が有限であるために生じる推定カーネル値の解像度が限られていることです。
この研究では、量子カーネル法で必要な回路実行数を推定するためのルールとヒューリスティックの包括的なシステムを提案します。
追加の回路実行による測定精度の向上を必要とする 2 つの重要な効果、拡散効果と集中効果を紹介します。
効果は、忠実度と投影された量子カーネルのコンテキストで分析されます。
これらの現象に対処するために、カーネル値の望ましい精度を推定するアプローチを開発し、それが回路の実行数に変換されます。
私たちの方法論は、指数関数的な値の集中の問題に焦点を当てた広範な数値シミュレーションを通じて検証されています。
量子カーネル手法は機械学習のパフォーマンスの観点からだけでなく、リソース消費の観点からも考慮されるべきであることを強調します。
この結果は、量子カーネル手法の潜在的な利点についての洞察を提供し、量子機械学習タスクにおけるそのアプリケーションの指針を提供します。
要約(オリジナル)
Quantum Machine Learning (QML) has gathered significant attention through approaches like Quantum Kernel Machines. While these methods hold considerable promise, their quantum nature presents inherent challenges. One major challenge is the limited resolution of estimated kernel values caused by the finite number of circuit runs performed on a quantum device. In this study, we propose a comprehensive system of rules and heuristics for estimating the required number of circuit runs in quantum kernel methods. We introduce two critical effects that necessitate an increased measurement precision through additional circuit runs: the spread effect and the concentration effect. The effects are analyzed in the context of fidelity and projected quantum kernels. To address these phenomena, we develop an approach for estimating desired precision of kernel values, which, in turn, is translated into the number of circuit runs. Our methodology is validated through extensive numerical simulations, focusing on the problem of exponential value concentration. We stress that quantum kernel methods should not only be considered from the machine learning performance perspective, but also from the context of the resource consumption. The results provide insights into the possible benefits of quantum kernel methods, offering a guidance for their application in quantum machine learning tasks.
arxiv情報
著者 | Artur Miroszewski,Marco Fellous Asiani,Jakub Mielczarek,Bertrand Le Saux,Jakub Nalepa |
発行日 | 2024-07-22 16:29:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google