Distributive Pre-Training of Generative Modeling Using Matrix-Product States

要約

テンソル ネットワークは、最近、機械学習において教師あり学習と教師なし学習の両方に応用できるようになりました。
これらのモデルをトレーニングするための最も一般的なアプローチは、勾配降下法です。
この研究では、基本的なテンソル ネットワーク操作 (合計や圧縮など) を利用した代替トレーニング スキームを検討します。
トレーニング アルゴリズムは、製品状態表現のすべてのトレーニング データから構築された重ね合わせ状態の圧縮に基づいています。
このアルゴリズムは簡単に並列化でき、データセットを 1 回繰り返すだけです。
したがって、これは事前トレーニング アルゴリズムとして機能します。
MNIST データセットでアルゴリズムのベンチマークを行い、新しい画像と分類タスクの生成に関して妥当な結果を示します。
さらに、入力データの確率振幅の圧縮された量子カーネル密度推定としてアルゴリズムの解釈を提供します。

要約(オリジナル)

Tensor networks have recently found applications in machine learning for both supervised learning and unsupervised learning. The most common approaches for training these models are gradient descent methods. In this work, we consider an alternative training scheme utilizing basic tensor network operations, e.g., summation and compression. The training algorithm is based on compressing the superposition state constructed from all the training data in product state representation. The algorithm could be parallelized easily and only iterates through the dataset once. Hence, it serves as a pre-training algorithm. We benchmark the algorithm on the MNIST dataset and show reasonable results for generating new images and classification tasks. Furthermore, we provide an interpretation of the algorithm as a compressed quantum kernel density estimation for the probability amplitude of input data.

arxiv情報

著者 Sheng-Hsuan Lin,Olivier Kuijpers,Sebastian Peterhansl,Frank Pollmann
発行日 2023-06-26 15:46:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.stat-mech, cs.LG, quant-ph パーマリンク