Improving Gradient Methods via Coordinate Transformations: Applications to Quantum Machine Learning

要約

機械学習アルゴリズムは、古典バージョンでも量子バージョンでも、勾配降下法などの勾配に基づく最適化アルゴリズムに大きく依存しています。
全体的なパフォーマンスは、極小値と不毛なプラトーの出現に依存し、計算が遅くなり、最適でない解が得られます。
実際には、これにより AI アプリケーションの計算コストとエネルギー コストが大幅に増加します。
この論文では、そのような手法の全体的なパフォーマンスを加速および改善し、不毛なプラトーと極小値の影響を軽減するための一般的な戦略を紹介します。
私たちの方法は、変分回転に似た座標変換に基づいており、コスト関数自体に依存する追加の方向をパラメーター空間に追加し、構成状況をより効率的に探索できるようにします。
私たちの手法の有効性は、多くの量子機械学習アルゴリズムを強化することでベンチマークされ、パフォーマンスが大幅に向上しました。

要約(オリジナル)

Machine learning algorithms, both in their classical and quantum versions, heavily rely on optimization algorithms based on gradients, such as gradient descent and alike. The overall performance is dependent on the appearance of local minima and barren plateaus, which slow-down calculations and lead to non-optimal solutions. In practice, this results in dramatic computational and energy costs for AI applications. In this paper we introduce a generic strategy to accelerate and improve the overall performance of such methods, allowing to alleviate the effect of barren plateaus and local minima. Our method is based on coordinate transformations, somehow similar to variational rotations, adding extra directions in parameter space that depend on the cost function itself, and which allow to explore the configuration landscape more efficiently. The validity of our method is benchmarked by boosting a number of quantum machine learning algorithms, getting a very significant improvement in their performance.

arxiv情報

著者 Pablo Bermejo,Borja Aizpurua,Roman Orus
発行日 2024-04-25 16:42:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク