要約
サドルポイントは、一次勾配降下法アルゴリズムにとって重要な課題となります。
古典的な機械学習の概念では、これらは、たとえば確率的勾配降下法によって回避されます。
この研究では、確率性の存在を利用することで、変分量子アルゴリズムで鞍点問題を自然に回避できるという証拠を提供します。
私たちは収束保証を証明し、数値シミュレーションと量子ハードウェアでの実践例を示します。
変分アルゴリズムの自然な確率性は、厳密な鞍点、つまり少なくとも 1 つの負のヘッセ固有値を持つ鞍点を回避するのに有益であると主張します。
ショットノイズのある程度のレベルが役立つ可能性があるというこの洞察は、短期的な変分量子アルゴリズムの概念に新しい視点を加えることが期待されます。
要約(オリジナル)
Saddle points constitute a crucial challenge for first-order gradient descent algorithms. In notions of classical machine learning, they are avoided for example by means of stochastic gradient descent methods. In this work, we provide evidence that the saddle points problem can be naturally avoided in variational quantum algorithms by exploiting the presence of stochasticity. We prove convergence guarantees and present practical examples in numerical simulations and on quantum hardware. We argue that the natural stochasticity of variational algorithms can be beneficial for avoiding strict saddle points, i.e., those saddle points with at least one negative Hessian eigenvalue. This insight that some levels of shot noise could help is expected to add a new perspective to notions of near-term variational quantum algorithms.
arxiv情報
著者 | Junyu Liu,Frederik Wilde,Antonio Anna Mele,Liang Jiang,Jens Eisert |
発行日 | 2023-06-08 15:31:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google