Trainability barriers and opportunities in quantum generative modeling

要約

タイトル:量子生成モデリングにおける訓練の壁と機会

要約:
– 量子生成モデルは、効率的なサンプリング戦略を提供することから、量子ハードウェア上での近い将来の優位性を実現する可能性があるが、そのスケーラビリティに関する重要な問題が残っている。
– この研究では、広大な平原と指数的損失集中によって引き起こされる量子生成モデルの訓練の障壁を調査している。
– 明示的および暗黙的なモデルと損失の相互作用を探究し、暗黙的生成モデル(量子回路ベースのモデルなど)と明示的損失(KLダイバージェンスなど)を使用すると、新しい種類の広大な平原が生じることを示す。
– 対照的に、暗黙的損失の代表例である最大平均偏差(MMD)は、カーネルの選択に応じて低次元かつトレーナブルであるか、グローバルかつ非トレーナブルである観測量の期待値と見なすことができる。
– しかし、同時に、トレーナビリティに必要な低次元損失は一般に高次元相関を区別することができないため、指数集中と虚偽の最小値の出現との間に根本的な緊張関係がある。
– さらに、量子回路を利用してエンコードされた分布の品質を評価することによって、忠実でトレーナブルな保証を持つ新しいローカル量子フィデリティ型損失を提案する。
– 最後に、ハイエネルギー物理学領域からの実世界データのモデリングに対する異なる損失関数のパフォーマンスを比較し、理論的結果で予測された傾向を確認する。

要約(オリジナル)

Quantum generative models, in providing inherently efficient sampling strategies, show promise for achieving a near-term advantage on quantum hardware. Nonetheless, important questions remain regarding their scalability. In this work, we investigate the barriers to the trainability of quantum generative models posed by barren plateaus and exponential loss concentration. We explore the interplay between explicit and implicit models and losses, and show that using implicit generative models (such as quantum circuit-based models) with explicit losses (such as the KL divergence) leads to a new flavour of barren plateau. In contrast, the Maximum Mean Discrepancy (MMD), which is a popular example of an implicit loss, can be viewed as the expectation value of an observable that is either low-bodied and trainable, or global and untrainable depending on the choice of kernel. However, in parallel, we highlight that the low-bodied losses required for trainability cannot in general distinguish high-order correlations, leading to a fundamental tension between exponential concentration and the emergence of spurious minima. We further propose a new local quantum fidelity-type loss which, by leveraging quantum circuits to estimate the quality of the encoded distribution, is both faithful and enjoys trainability guarantees. Finally, we compare the performance of different loss functions for modelling real-world data from the High-Energy-Physics domain and confirm the trends predicted by our theoretical results.

arxiv情報

著者 Manuel S. Rudolph,Sacha Lerch,Supanut Thanasilp,Oriel Kiss,Sofia Vallecorsa,Michele Grossi,Zoë Holmes
発行日 2023-05-04 14:45:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, hep-ex, quant-ph, stat.ML パーマリンク