要約
古典的な拡散モデルは優れた生成結果を示し、多くの問題に応用されてきた。これらのモデルを量子領域で探索することで、量子生成学習の分野を発展させることができる。本論文では、古典拡散モデルのシンプルでエレガントな量子対応モデルである量子生成拡散モデル(QGDM)を紹介する。 QGDMの核となる考え方は、任意のターゲット量子状態は、非単斉前方過程を経て、最もエントロピーが大きく、システムに関する不確実性が最大となる完全混合状態に変換できるというものである。その後、訓練可能な後方過程を用いて、完全混合状態から目標状態を回復することができる。QGDMの後方プロセスの設計要件には、少ないパラメータ数を維持しながら非単一性を確保することが含まれる。これを達成するために、後方過程に部分的なトレース操作を導入し、非単一性を強制する。さらに、パラメータ共有戦略を用い、時間情報を後方プロセスの入力として取り入れることにより、学習可能なパラメータ数を制御する。さらに、QGDMのリソース効率の良いバージョンを導入し、印象的な生成能力を維持しつつ、補助量子ビットの数を削減する。 我々の提案するモデルは、勾配降下を用いて凸距離関数を最適化するため、量子生成逆数ネットワーク(QGAN)よりも優れた収束性能を示す。QGANとの比較結果は、純粋量子状態と混合量子状態の両方の生成における我々のモデルの有効性を示している。特に、混合状態生成タスクにおいて、我々のモデルはQGANと比較して53.03%高い忠実度を達成した。これらの結果は、提案モデルが困難な量子生成タスクに取り組む可能性を強調している。
要約(オリジナル)
Classical diffusion models have shown superior generative results and have been applied to many problems. Exploring these models in the quantum domain can advance the field of quantum generative learning. In this paper, we introduce the Quantum Generative Diffusion Model (QGDM), a simple and elegant quantum counterpart of classical diffusion models. The core idea of QGDM is that any target quantum state can be transformed into a completely mixed state, which has the highest entropy and maximum uncertainty about the system, through a non-unitary forward process. Subsequently, a trainable backward process can be used to recover the target state from the completely mixed state. The design requirements for QGDM’s backward process include ensuring non-unitarity while maintaining a low number of parameters. To achieve this, we introduce partial trace operations in the backward process to enforce non-unitary. Additionally, we control the number of trainable parameters by using a parameter-sharing strategy and incorporating temporal information as an input in the backward process. Furthermore, we introduce a resource-efficient version of QGDM, which reduces the number of auxiliary qubits while preserving impressive generative capabilities. Our proposed models exhibit better convergence performance than Quantum Generative Adversarial Networks (QGANs) because our models optimize a convex distance function using gradient descent. Comparative results with QGANs demonstrate the effectiveness of our models in generating both pure and mixed quantum states. Notably, our models achieve 53.03% higher fidelity in mixed-state generation tasks compared to QGANs. These results highlight the potential of the proposed models to tackle challenging quantum generation tasks.
arxiv情報
著者 | Chuangtao Chen,Qinglin Zhao,MengChu Zhou,Zhimin He,Zhili Sun,Haozhen Situ |
発行日 | 2024-06-03 13:37:50+00:00 |
arxivサイト | arxiv_id(pdf) |