Training robust and generalizable quantum models

要約

敵対的な堅牢性と一般化は、どちらも信頼性の高い機械学習モデルの重要な特性です。
この論文では、リプシッツ限界に基づく量子機械学習のコンテキストでこれらの特性を研究します。
トレーニング可能なエンコーディングを使用して、量子モデルに対してカスタマイズされたパラメーター依存のリプシッツ境界を導出し、データ エンコーディングのノルムが入力データの摂動に対するロバスト性に重大な影響を与えることを示しました。
さらに、データ エンコーディングのパラメータに明示的に依存する一般化誤差の限界を導き出します。
私たちの理論的発見は、コストのリプシッツ限界を正則化することにより、堅牢で一般化可能な量子モデルをトレーニングするための実用的な戦略を生み出します。
さらに、量子機械学習で頻繁に使用されるような固定されたトレーニング不可能なエンコーディングの場合、リプシッツ限界はパラメーターの調整によって影響を受けることができないことを示します。
したがって、トレーニング可能なエンコーディングは、トレーニング中にロバスト性と一般化を体系的に適応させるために重要です。
数値結果を用いて、実際にリプシッツ境界正則化が実質的により堅牢で一般化可能な量子モデルをもたらすことを実証します。

要約(オリジナル)

Adversarial robustness and generalization are both crucial properties of reliable machine learning models. In this paper, we study these properties in the context of quantum machine learning based on Lipschitz bounds. We derive tailored, parameter-dependent Lipschitz bounds for quantum models with trainable encoding, showing that the norm of the data encoding has a crucial impact on the robustness against perturbations in the input data. Further, we derive a bound on the generalization error which explicitly depends on the parameters of the data encoding. Our theoretical findings give rise to a practical strategy for training robust and generalizable quantum models by regularizing the Lipschitz bound in the cost. Further, we show that, for fixed and non-trainable encodings as frequently employed in quantum machine learning, the Lipschitz bound cannot be influenced by tuning the parameters. Thus, trainable encodings are crucial for systematically adapting robustness and generalization during training. With numerical results, we demonstrate that, indeed, Lipschitz bound regularization leads to substantially more robust and generalizable quantum models.

arxiv情報

著者 Julian Berberich,Daniel Fink,Daniel Pranjić,Christian Tutschku,Christian Holm
発行日 2023-11-20 16:06:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, quant-ph パーマリンク