Generative quantum machine learning via denoising diffusion probabilistic models

要約

深層生成モデルは、コンピューター ビジョン、テキスト生成、および大規模な言語モデルを実現する重要なテクノロジーです。
ノイズ除去拡散確率モデル (DDPM) は、多くのコンピューター ビジョン タスクで多様で高品質のサンプルを生成できること、また、柔軟なモデル アーキテクチャと比較的シンプルなトレーニング スキームを組み込むことができるため、最近大きな注目を集めています。
量子生成モデルは、もつれと重ね合わせによって強化され、古典データと量子データの学習に新たな洞察をもたらしました。
古典的な対応物からインスピレーションを得て、効率的に訓練可能な量子データの生成学習を可能にする量子ノイズ除去拡散確率モデル (QuDDPM) を提案します。
QuDDPM は、表現力を保証するために十分な回路層を採用すると同時に、ターゲット分布とノイズの間の補間として複数の中間トレーニング タスクを導入して、不毛なプラトーを回避し、効率的なトレーニングを保証します。
学習誤差に限界を設け、相関量子ノイズ モデル、量子多体位相、量子データのトポロジー構造を学習する QuDDPM の機能を実証します。
その結果は、多用途かつ効率的な量子生成学習のパラダイムを提供します。

要約(オリジナル)

Deep generative models are key-enabling technology to computer vision, text generation, and large language models. Denoising diffusion probabilistic models (DDPMs) have recently gained much attention due to their ability to generate diverse and high-quality samples in many computer vision tasks, as well as to incorporate flexible model architectures and a relatively simple training scheme. Quantum generative models, empowered by entanglement and superposition, have brought new insight to learning classical and quantum data. Inspired by the classical counterpart, we propose the quantum denoising diffusion probabilistic model (QuDDPM) to enable efficiently trainable generative learning of quantum data. QuDDPM adopts sufficient layers of circuits to guarantee expressivity, while it introduces multiple intermediate training tasks as interpolation between the target distribution and noise to avoid barren plateau and guarantee efficient training. We provide bounds on the learning error and demonstrate QuDDPM’s capability in learning correlated quantum noise model, quantum many-body phases, and topological structure of quantum data. The results provide a paradigm for versatile and efficient quantum generative learning.

arxiv情報

著者 Bingzhi Zhang,Peng Xu,Xiaohui Chen,Quntao Zhuang
発行日 2024-02-16 16:39:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, quant-ph パーマリンク