要約
量子コンピューティングを古典的な機械学習アーキテクチャに統合することは、モデルの効率と計算能力を向上させる有望なアプローチとして浮上しています。
この研究では、量子カーネルベースの長期短期メモリ (QK-LSTM) ネットワークを紹介します。このネットワークは、古典的な LSTM フレームワーク内で量子カーネル関数を利用して、シーケンシャル データ内の複雑な非線形パターンをキャプチャします。
QK-LSTM モデルは、入力データを高次元の量子特徴空間に埋め込むことで、大規模なパラメーター セットへの依存を減らし、シーケンス モデリング タスクの精度を維持しながら効果的な圧縮を実現します。
この量子強化アーキテクチャは、効率的な収束、堅牢な損失最小化、モデルのコンパクト性を実証しており、エッジ コンピューティング環境やリソースが限られた量子デバイス (特に NISQ 時代) への展開に適しています。
ベンチマークの比較により、QK-LSTM はパラメータが少ないにもかかわらず、古典的な LSTM モデルと同等のパフォーマンスを達成していることが明らかになり、自然言語処理や効率的な時間データ処理を必要とするその他の領域における量子機械学習アプリケーションを進歩させる可能性が強調されています。
要約(オリジナル)
The integration of quantum computing into classical machine learning architectures has emerged as a promising approach to enhance model efficiency and computational capacity. In this work, we introduce the Quantum Kernel-Based Long Short-Term Memory (QK-LSTM) network, which utilizes quantum kernel functions within the classical LSTM framework to capture complex, non-linear patterns in sequential data. By embedding input data into a high-dimensional quantum feature space, the QK-LSTM model reduces the reliance on large parameter sets, achieving effective compression while maintaining accuracy in sequence modeling tasks. This quantum-enhanced architecture demonstrates efficient convergence, robust loss minimization, and model compactness, making it suitable for deployment in edge computing environments and resource-limited quantum devices (especially in the NISQ era). Benchmark comparisons reveal that QK-LSTM achieves performance on par with classical LSTM models, yet with fewer parameters, underscoring its potential to advance quantum machine learning applications in natural language processing and other domains requiring efficient temporal data processing.
arxiv情報
著者 | Yu-Chao Hsu,Tai-Yu Li,Kuan-Cheng Chen |
発行日 | 2024-11-20 11:39:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google