Transformer-QEC: Quantum Error Correction Code Decoding with Transferable Transformers

要約

量子コンピューティングには、古典的なシステムでは解決できない問題を解決できる可能性がありますが、現代の量子デバイスの高いエラー率は、有用なアルゴリズムの実行の許容限界を超えることがよくあります。
量子誤り訂正 (QEC) は、冗長性を採用し、複数のデータ量子ビットに量子情報を分散し、シンドローム量子ビットを利用してそれらの状態の誤りを監視することでこれを軽減します。
その後、シンドロームは復号化アルゴリズムによって解釈され、データ量子ビット内のエラーが特定され、修正されます。
このタスクは、データとシンドローム量子ビットの両方、およびシンドローム抽出操作に影響を与えるエラー源が多数あるため、複雑です。
さらに、同一のシンドロームが異なるエラー源から発生する可能性があるため、シンドロームを集合的に評価する復号アルゴリズムが必要になります。
多層パーセプトロン (MLP) や畳み込みニューラル ネットワーク (CNN) などの機械学習 (ML) デコーダーが提案されていますが、多くの場合、それらは局所的なシンドローム領域に焦点を当てており、異なるコード距離に合わせて調整するときに再トレーニングが必要になります。
自己注意を使用してすべての入力シンドロームにわたるグローバルな受容野を実現するトランスベースの QEC デコーダを紹介します。
これには、ローカル物理エラーとグローバル パリティ ラベル損失の両方を組み合わせた混合損失トレーニング アプローチが組み込まれています。
さらに、トランスフォーマ アーキテクチャの可変長入力に対する固有の適応性により、効率的な転送学習が可能になり、デコーダが再トレーニングせずにさまざまなコード距離に適応できるようになります。
6 つのコード距離と 10 の異なるエラー構成での評価では、私たちのモデルが Union Find (UF) や Minimum Weight Perfect Matching (MWPM) などの非 ML デコーダや他の ML デコーダよりも常に優れたパフォーマンスを示し、それによって最高の論理エラー率を達成できることが実証されました。
さらに、転移学習によりトレーニング コストを 10 倍以上節約できます。

要約(オリジナル)

Quantum computing has the potential to solve problems that are intractable for classical systems, yet the high error rates in contemporary quantum devices often exceed tolerable limits for useful algorithm execution. Quantum Error Correction (QEC) mitigates this by employing redundancy, distributing quantum information across multiple data qubits and utilizing syndrome qubits to monitor their states for errors. The syndromes are subsequently interpreted by a decoding algorithm to identify and correct errors in the data qubits. This task is complex due to the multiplicity of error sources affecting both data and syndrome qubits as well as syndrome extraction operations. Additionally, identical syndromes can emanate from different error sources, necessitating a decoding algorithm that evaluates syndromes collectively. Although machine learning (ML) decoders such as multi-layer perceptrons (MLPs) and convolutional neural networks (CNNs) have been proposed, they often focus on local syndrome regions and require retraining when adjusting for different code distances. We introduce a transformer-based QEC decoder which employs self-attention to achieve a global receptive field across all input syndromes. It incorporates a mixed loss training approach, combining both local physical error and global parity label losses. Moreover, the transformer architecture’s inherent adaptability to variable-length inputs allows for efficient transfer learning, enabling the decoder to adapt to varying code distances without retraining. Evaluation on six code distances and ten different error configurations demonstrates that our model consistently outperforms non-ML decoders, such as Union Find (UF) and Minimum Weight Perfect Matching (MWPM), and other ML decoders, thereby achieving best logical error rates. Moreover, the transfer learning can save over 10x of training cost.

arxiv情報

著者 Hanrui Wang,Pengyu Liu,Kevin Shao,Dantong Li,Jiaqi Gu,David Z. Pan,Yongshan Ding,Song Han
発行日 2023-11-27 18:52:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.AR, cs.ET, cs.LG, quant-ph パーマリンク