Circuit Partitioning Using Large Language Models for Quantum Compilation and Simulations

要約

私たちは騒々しい中級スケール量子(NISQ)時代の真っin中にいます。ここでは、量子コンピューターは騒々しいゲートによって制限されています。
量子回路コンパイルアルゴリズムは、量子アルゴリズムを量子ハードウェアにマッピングするときにこれらのノイズの多いゲートを最小化しようとしますが、5〜6キュビット以下の回路にアプリケーションを制限する計算上の課題に直面し、ノイジー量子ゲートの最小化アルゴリズムを適用する前に大きな回路を分割する必要があります。
これらのアルゴリズムの既存の生成は、本質的にヒューリスティックであり、下流のゲート最小化タスクを考慮していません。
大規模な言語モデル(LLMS)には、これを変更し、量子回路パーティションの改善に役立つ可能性があります。
このペーパーでは、QASMを含むコードを理解および生成する能力を活用することにより、量子回路を分割するために、LlamaやMistralなどのLLMの使用を調査します。
具体的には、Berkeley Quantum Synthesis Toolkitのクイックパーティションアプローチを使用して、LLMSに回転回路を分割するように教えます。
実験的評価を通じて、オープンソースLLMの慎重な微調整により、パーティションタスクの精度が53.4%を得ることができることが示されています。

要約(オリジナル)

We are in the midst of the noisy intermediate-scale quantum (NISQ) era, where quantum computers are limited by noisy gates, some of which are more error-prone than others and can render the final computation incomprehensible. Quantum circuit compilation algorithms attempt to minimize these noisy gates when mapping quantum algorithms onto quantum hardware but face computational challenges that restrict their application to circuits with no more than 5-6 qubits, necessitating the need to partition large circuits before the application of noisy quantum gate minimization algorithms. The existing generation of these algorithms is heuristic in nature and does not account for downstream gate minimization tasks. Large language models (LLMs) have the potential to change this and help improve quantum circuit partitions. This paper investigates the use of LLMs, such as Llama and Mistral, for partitioning quantum circuits by capitalizing on their abilities to understand and generate code, including QASM. Specifically, we teach LLMs to partition circuits using the quick partition approach of the Berkeley Quantum Synthesis Toolkit. Through experimental evaluations, we show that careful fine-tuning of open source LLMs enables us to obtain an accuracy of 53.4% for the partition task while over-the-shelf LLMs are unable to correctly partition circuits, using standard 1-shot and few-shot training approaches.

arxiv情報

著者 Pranav Sinha,Sumit Kumar Jha,Sunny Raj
発行日 2025-05-12 16:18:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.ET, quant-ph パーマリンク