Decompositional Quantum Graph Neural Network

要約

量子機械学習は、量子アルゴリズムと量子コンピューティングを使用して機械学習に取り組むことを目的とした、急成長している分野です。
物理量子ビットがなく、実世界のデータをユークリッド空間からヒルベルト空間にマッピングする効果的な手段がないため、これらの方法のほとんどは、量子ビットに基づいた具体的なアーキテクチャを考案するのではなく、量子アナロジーまたはプロセス シミュレーションに焦点を当てています。
この論文では、エゴグラフベースの量子グラフニューラルネットワーク(egoQGNN)と呼ばれる、グラフ構造データ用の新しいハイブリッド量子古典アルゴリズムを提案します。
egoQGNN は、テンソル積とユニティ マトリックス表現を使用して GNN 理論的フレームワークを実装しているため、必要なモデル パラメーターの数が大幅に削減されます。
egoQGNN は、古典的なコンピューターによって制御される場合、適度なサイズの量子デバイスを使用して入力グラフから自我グラフを処理することにより、任意のサイズのグラフに対応できます。
このアーキテクチャは、実世界のデータからヒルベルト空間への新しいマッピングに基づいています。
このマッピングは、データに存在する距離関係を維持し、情報の損失を減らします。
実験結果は、提案された方法が、それらのモデルと比較してわずか 1.68\% のパラメーターで、競合する最先端のモデルよりも優れていることを示しています。

要約(オリジナル)

Quantum machine learning is a fast-emerging field that aims to tackle machine learning using quantum algorithms and quantum computing. Due to the lack of physical qubits and an effective means to map real-world data from Euclidean space to Hilbert space, most of these methods focus on quantum analogies or process simulations rather than devising concrete architectures based on qubits. In this paper, we propose a novel hybrid quantum-classical algorithm for graph-structured data, which we refer to as the Ego-graph based Quantum Graph Neural Network (egoQGNN). egoQGNN implements the GNN theoretical framework using the tensor product and unity matrix representation, which greatly reduces the number of model parameters required. When controlled by a classical computer, egoQGNN can accommodate arbitrarily sized graphs by processing ego-graphs from the input graph using a modestly-sized quantum device. The architecture is based on a novel mapping from real-world data to Hilbert space. This mapping maintains the distance relations present in the data and reduces information loss. Experimental results show that the proposed method outperforms competitive state-of-the-art models with only 1.68\% parameters compared to those models.

arxiv情報

著者 Xing Ai,Zhihong Zhang,Luzhe Sun,Junchi Yan,Edwin Hancock
発行日 2023-03-24 14:02:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク