Generalization with quantum geometry for learning unitaries

要約

一般化とは、トレーニング データから学習することにより、新しいデータに対して正確な予測を行う量子機械学習モデルの機能です。
ここでは、データ量子フィッシャー情報メトリック (DQFIM) を導入して、モデルがいつ一般化できるかを判断します。
ユニタリの変分学習の場合、DQFIM は、トレーニングと一般化を成功させるために必要な回路パラメーターとトレーニング データの量を定量化します。
DQFIM を適用して、一定数のトレーニング状態とパラメーターの多項式数が一般化に十分な場合を説明します。
さらに、トレーニング データから対称性を削除することで、一般化を改善できます。
最後に、トレーニング データとテスト データが異なるデータ分布から抽出される分布外一般化は、同じ分布を使用するよりも優れている可能性があることを示します。
私たちの仕事は、量子機械学習の一般化を改善するための新しいアプローチを切り開きます。

要約(オリジナル)

Generalization is the ability of quantum machine learning models to make accurate predictions on new data by learning from training data. Here, we introduce the data quantum Fisher information metric (DQFIM) to determine when a model can generalize. For variational learning of unitaries, the DQFIM quantifies the amount of circuit parameters and training data needed to successfully train and generalize. We apply the DQFIM to explain when a constant number of training states and polynomial number of parameters are sufficient for generalization. Further, we can improve generalization by removing symmetries from training data. Finally, we show that out-of-distribution generalization, where training and testing data are drawn from different data distributions, can be better than using the same distribution. Our work opens up new approaches to improve generalization in quantum machine learning.

arxiv情報

著者 Tobias Haug,M. S. Kim
発行日 2023-03-23 17:32:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph, stat.ML パーマリンク