要約
量子ニューラルネットワークは、より速く収束し、古典モデルよりも高い精度を達成します。
ただし、量子機械学習におけるデータ増強は未定のままです。
データの希少性に取り組むために、量子生成敵のネットワーク(QGAN)をハイブリッド量子クラシックニューラルネットワーク(HQCNNS)と統合して、増強フレームワークを開発します。
2つの戦略を提案します。HQCNN全体のデータ処理と分類を強化する一般的なアプローチと、特定のデータカテゴリでHQCNNのパフォーマンスに合わせて調整されたサンプルを動的に生成し、複雑なデータセットから学習する能力を向上させるカスタマイズされた戦略です。
MNISTデータセットでのシミュレーション実験は、QGANが従来のデータ増強方法と古典的なGANを上回ることを示しています。
ベースラインDCGANと比較して、QGANは、効率と有効性のバランスをとるパラメーターの半分で同等のパフォーマンスを達成します。
これは、QGANがモデルを簡素化し、高品質のデータを生成し、HQCNNの精度とパフォーマンスを向上させることができることを示唆しています。
これらの調査結果は、機械学習に量子データ増強技術を適用する方法を開きます。
要約(オリジナル)
Quantum neural networks converge faster and achieve higher accuracy than classical models. However, data augmentation in quantum machine learning remains underexplored. To tackle data scarcity, we integrate quantum generative adversarial networks (QGANs) with hybrid quantum-classical neural networks (HQCNNs) to develop an augmentation framework. We propose two strategies: a general approach to enhance data processing and classification across HQCNNs, and a customized strategy that dynamically generates samples tailored to the HQCNN’s performance on specific data categories, improving its ability to learn from complex datasets. Simulation experiments on the MNIST dataset demonstrate that QGAN outperforms traditional data augmentation methods and classical GANs. Compared to baseline DCGAN, QGAN achieves comparable performance with half the parameters, balancing efficiency and effectiveness. This suggests that QGANs can simplify models and generate high-quality data, enhancing HQCNN accuracy and performance. These findings pave the way for applying quantum data augmentation techniques in machine learning.
arxiv情報
著者 | Run-Ze He,Jun-Jian Su,Su-Juan Qin,Zheng-Ping Jin,Fei Gao |
発行日 | 2025-05-30 16:42:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google