要約
この論文では、トレーニング可能な量積ニューラル ネットワーク (QuNN) のパフォーマンスを向上させるための新しいフレームワークを紹介します。これは、トレーニング可能な量子量層を導入し、それに関連する重要な課題に対処することによって行われます。
従来の量子積分層は、特徴抽出には有益ですが、ほとんどが静的であり、適応性が限られていました。
最先端とは異なり、私たちの研究はこれらの層内でのトレーニングを可能にすることでこの制限を克服し、QuNN の柔軟性と可能性を大幅に高めます。
ただし、複数のトレーニング可能な量子積分層の導入により、主にこれらの層にわたる勾配にアクセスすることが困難になるため、勾配ベースの最適化が複雑になります。
これを解決するために、私たちは残差学習の概念を活用した新しいアーキテクチャである残差量積積ニューラル ネットワーク (ResQuNNs) を提案します。これは、層間にスキップ接続を追加することで勾配の流れを促進します。
量子積分層間に残差ブロックを挿入することで、ネットワーク全体にわたる勾配アクセスが強化され、トレーニング パフォーマンスの向上につながります。
さらに、QuNN 内でのこれらの残差ブロックの戦略的配置に関する経験的証拠を提供します。
広範な実験を通じて、残差ブロックの効率的な構成を特定しました。これにより、ネットワーク内のすべての層にわたる勾配が可能になり、最終的に効率的なトレーニングが実現します。
私たちの発見は、QuNN のパフォーマンス向上を最大化する上で、残差ブロックの正確な位置が重要な役割を果たすことを示唆しています。
私たちの結果は、量子ディープラーニングの進化における大きな前進を示し、理論開発と実際の量子コンピューティングアプリケーションの両方に新たな道を提供します。
要約(オリジナル)
In this paper, we present a novel framework for enhancing the performance of Quanvolutional Neural Networks (QuNNs) by introducing trainable quanvolutional layers and addressing the critical challenges associated with them. Traditional quanvolutional layers, although beneficial for feature extraction, have largely been static, offering limited adaptability. Unlike state-of-the-art, our research overcomes this limitation by enabling training within these layers, significantly increasing the flexibility and potential of QuNNs. However, the introduction of multiple trainable quanvolutional layers induces complexities in gradient-based optimization, primarily due to the difficulty in accessing gradients across these layers. To resolve this, we propose a novel architecture, Residual Quanvolutional Neural Networks (ResQuNNs), leveraging the concept of residual learning, which facilitates the flow of gradients by adding skip connections between layers. By inserting residual blocks between quanvolutional layers, we ensure enhanced gradient access throughout the network, leading to improved training performance. Moreover, we provide empirical evidence on the strategic placement of these residual blocks within QuNNs. Through extensive experimentation, we identify an efficient configuration of residual blocks, which enables gradients across all the layers in the network that eventually results in efficient training. Our findings suggest that the precise location of residual blocks plays a crucial role in maximizing the performance gains in QuNNs. Our results mark a substantial step forward in the evolution of quantum deep learning, offering new avenues for both theoretical development and practical quantum computing applications.
arxiv情報
著者 | Muhammad Kashif,Muhammad Shafique |
発行日 | 2024-08-06 14:30:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google