要約
深層生成モデルは、コンピューター ビジョン、テキスト生成、および大規模な言語モデルを実現する重要なテクノロジーです。
ノイズ除去拡散確率モデル (DDPM) は、多くのコンピューター ビジョン タスクで多様で高品質のサンプルを生成できること、また、柔軟なモデル アーキテクチャと比較的単純なトレーニング スキームを組み込むことができるため、最近大きな注目を集めています。
量子生成モデルは、もつれと重ね合わせによって強化され、古典データと量子データの学習に新たな洞察をもたらしました。
古典的な対応物からインスピレーションを得て、効率的に訓練可能な量子データの生成学習を可能にする量子ノイズ除去拡散確率モデル (QuDDPM) を提案します。
QuDDPM は、表現力を保証するために十分な回路層を採用すると同時に、ターゲット分布とノイズの間の補間として複数の中間トレーニング タスクを導入して、不毛なプラトーを回避し、効率的なトレーニングを保証します。
相関量子ノイズ モデルを学習し、量子データの非自明な分布の位相構造を学習する QuDDPM の機能を実証します。
要約(オリジナル)
Deep generative models are key-enabling technology to computer vision, text generation and large language models. Denoising diffusion probabilistic models (DDPMs) have recently gained much attention due to their ability to generate diverse and high-quality samples in many computer vision tasks, as well as to incorporate flexible model architectures and relatively simple training scheme. Quantum generative models, empowered by entanglement and superposition, have brought new insight to learning classical and quantum data. Inspired by the classical counterpart, we propose the quantum denoising diffusion probabilistic models (QuDDPM) to enable efficiently trainable generative learning of quantum data. QuDDPM adopts sufficient layers of circuits to guarantee expressivity, while introduces multiple intermediate training tasks as interpolation between the target distribution and noise to avoid barren plateau and guarantee efficient training. We demonstrate QuDDPM’s capability in learning correlated quantum noise model and learning topological structure of nontrivial distribution of quantum data.
arxiv情報
| 著者 | Bingzhi Zhang,Peng Xu,Xiaohui Chen,Quntao Zhuang |
| 発行日 | 2023-10-09 17:03:08+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google