Resource frugal optimizer for quantum machine learning

要約

量子機械学習 (QML) としても知られる量子強化データ サイエンスは、近い将来の量子コンピューターのアプリケーションとして関心が高まっています。
変分 QML アルゴリズムは、特に量子データが関係する場合、実際のハードウェア上で実際的な問題を解決できる可能性があります。
ただし、これらのアルゴリズムのトレーニングは困難な場合があり、カスタマイズされた最適化手順が必要です。
具体的には、QML アプリケーションには大規模なデータセットが含まれるため、大きなショット数のオーバーヘッドが必要になる場合があります。
この研究では、データセットと損失関数を定義する測定演算子の両方に対する同時ランダム サンプリングを提唱します。
多くの QML アプリケーションを包含する非常に一般的な損失関数を検討し、その勾配の不偏推定量を構築する方法を示します。
これにより、Refoqus (REsource Frugal Optimizer for Quantum Stochastic gradient descent) と呼ばれるショット倹約勾配降下オプティマイザーを提案できるようになります。
私たちの数値は、Refoqus が、測定演算子のみでサンプリングするオプティマイザーと比較しても、ショット コストを数桁節約できることを示しています。

要約(オリジナル)

Quantum-enhanced data science, also known as quantum machine learning (QML), is of growing interest as an application of near-term quantum computers. Variational QML algorithms have the potential to solve practical problems on real hardware, particularly when involving quantum data. However, training these algorithms can be challenging and calls for tailored optimization procedures. Specifically, QML applications can require a large shot-count overhead due to the large datasets involved. In this work, we advocate for simultaneous random sampling over both the dataset as well as the measurement operators that define the loss function. We consider a highly general loss function that encompasses many QML applications, and we show how to construct an unbiased estimator of its gradient. This allows us to propose a shot-frugal gradient descent optimizer called Refoqus (REsource Frugal Optimizer for QUantum Stochastic gradient descent). Our numerics indicate that Refoqus can save several orders of magnitude in shot cost, even relative to optimizers that sample over measurement operators alone.

arxiv情報

著者 Charles Moussa,Max Hunter Gordon,Michal Baczyk,M. Cerezo,Lukasz Cincio,Patrick J. Coles
発行日 2023-07-28 13:23:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph, stat.ML パーマリンク