要約
教師なし機械学習モデルは、明示的な人間によるガイダンスや特徴エンジニアリングを必要とせずに、トレーニング データの内部表現を構築します。
この学習された表現により、データのどの特徴が当面のタスクに関連しているかについての洞察が得られます。
量子物理学の文脈では、人間の介入なしに量子状態を記述するモデルをトレーニングすることは、機械が複雑な量子状態をどのように表現するかについての洞察を得る有望なアプローチを提供します。
学習された表現を解釈する能力は、量子システムの自明ではない特徴とその効率的な表現について新しい視点を提供する可能性があります。
パラメータ化された量子回路によって生成された 2 量子ビット密度行列で生成モデルをトレーニングします。
一連の計算実験では、モデルの学習された表現とデータの内部理解を調査します。
モデルが、量子状態をその根底にあるもつれ特性に関連付ける解釈可能な表現を学習することが観察されます。
特に、私たちの結果は、モデルの潜在表現がもつれ測定の一致と直接相関していることを示しています。
この研究からの洞察は、量子状態の解釈可能な機械学習に向けた概念実証を表しています。
私たちのアプローチは、機械が自律的に小規模量子システムを表現する方法をどのように学習するかについての洞察を提供します。
要約(オリジナル)
Unsupervised machine learning models build an internal representation of their training data without the need for explicit human guidance or feature engineering. This learned representation provides insights into which features of the data are relevant for the task at hand. In the context of quantum physics, training models to describe quantum states without human intervention offers a promising approach to gaining insight into how machines represent complex quantum states. The ability to interpret the learned representation may offer a new perspective on non-trivial features of quantum systems and their efficient representation. We train a generative model on two-qubit density matrices generated by a parameterized quantum circuit. In a series of computational experiments, we investigate the learned representation of the model and its internal understanding of the data. We observe that the model learns an interpretable representation which relates the quantum states to their underlying entanglement characteristics. In particular, our results demonstrate that the latent representation of the model is directly correlated with the entanglement measure concurrence. The insights from this study represent proof of concept towards interpretable machine learning of quantum states. Our approach offers insight into how machines learn to represent small-scale quantum systems autonomously.
arxiv情報
著者 | Felix Frohnert,Evert van Nieuwenburg |
発行日 | 2023-11-06 18:26:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google