Molecular Quantum Transformer

要約

強力な注意メカニズムで有名なトランスモデルは、さまざまな人工知能タスクで最先端のパフォーマンスを達成していますが、高い計算コストやメモリの使用などの課題に直面しています。
研究者は、変圧器の設計を強化するために量子コンピューティングを調査していますが、古典的なデータではまだ限られた成功を示しています。
量子化学の量子データの量子機械学習を活用することに焦点を当てているため、特に量子化学において、分子量子系の相互作用をモデル化するための分子量子変圧器(MQT)を提案します。
量子回路を利用して分子構成に注意メカニズムを実装することにより、MQTはすべての構成の基本エネルギーを効率的に計算できます。
数値的デモンストレーションは、H_2、LiH、Beh_2、およびH_4の基本エネルギーを計算する際に、MQTが古典的な変圧器を上回り、変圧器構造における量子効果の約束を強調することを示しています。
さらに、多様な分子データでのその事前抑制能力は、新しい分子の効率的な学習を促進し、最小限の追加労力で複雑な分子システムへの適用性を拡大します。
私たちの方法は、基底状態のエネルギーを推定し、量子化学と材料科学の新しい道を開くための既存の量子アルゴリズムに代わるものを提供します。

要約(オリジナル)

The Transformer model, renowned for its powerful attention mechanism, has achieved state-of-the-art performance in various artificial intelligence tasks but faces challenges such as high computational cost and memory usage. Researchers are exploring quantum computing to enhance the Transformer’s design, though it still shows limited success with classical data. With a growing focus on leveraging quantum machine learning for quantum data, particularly in quantum chemistry, we propose the Molecular Quantum Transformer (MQT) for modeling interactions in molecular quantum systems. By utilizing quantum circuits to implement the attention mechanism on the molecular configurations, MQT can efficiently calculate ground-state energies for all configurations. Numerical demonstrations show that in calculating ground-state energies for H_2, LiH, BeH_2, and H_4, MQT outperforms the classical Transformer, highlighting the promise of quantum effects in Transformer structures. Furthermore, its pretraining capability on diverse molecular data facilitates the efficient learning of new molecules, extending its applicability to complex molecular systems with minimal additional effort. Our method offers an alternative to existing quantum algorithms for estimating ground-state energies, opening new avenues in quantum chemistry and materials science.

arxiv情報

著者 Yuichi Kamata,Quoc Hoan Tran,Yasuhiro Endo,Hirotaka Oshima
発行日 2025-03-27 16:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク