Prospects of Privacy Advantage in Quantum Machine Learning

要約

機械学習モデルにおけるデータ プライバシーの確保は、特に、共同学習を可能にするためにモデルの勾配が通常複数の関係者間で共有される分散設定では重要です。
古典的モデルの勾配から入力データを回復する成功が増えていることに動機を与えられたこの研究は、「量子機械学習モデルの勾配から入力データを回復するのはどのくらい難しいのか?」という中心的な質問に取り組んでいます。
学習モデルとしての変分量子回路 (VQC) に焦点を当て、プライバシーの脆弱性を判断する際に VQC 解析の動的リー代数 (DLA) が果たす重要な役割を明らかにします。
DLA はこれまで、VQC モデルの古典的なシミュレーション可能性と訓練可能性に関連付けられてきましたが、今回の研究で初めて、VQC モデルのプライバシーとの関連付けが確立されました。
特に、多項式サイズの DLA など、VQC のトレーニング可能性に役立つプロパティによって、入力の詳細なスナップショットの抽出も容易になることを示します。
スナップショットにより、元の入力に直接アクセスすることなく、個別の学習タスクの VQC モデルをトレーニングできるため、これを弱いプライバシー侵害と呼びます。
さらに、古典的または量子支援多項式時間法によってこれらのスナップショットから元の入力データを復元できる強力なプライバシー侵害の条件を調査します。
我々は、古典的なシミュレーション可能性、DLA 基底との重複、VQC モデルのプライバシー侵害を可能にするフーリエ周波数特性などの符号化マップ上の条件を確立します。
したがって、私たちの発見は、訓練可能性と堅牢なプライバシー保護のバランスをとった量子機械学習モデルを設計するための要件をガイドすることにより、量子プライバシーの利点の見通しを詳しく説明する上で重要な役割を果たします。

要約(オリジナル)

Ensuring data privacy in machine learning models is critical, particularly in distributed settings where model gradients are typically shared among multiple parties to allow collaborative learning. Motivated by the increasing success of recovering input data from the gradients of classical models, this study addresses a central question: How hard is it to recover the input data from the gradients of quantum machine learning models? Focusing on variational quantum circuits (VQC) as learning models, we uncover the crucial role played by the dynamical Lie algebra (DLA) of the VQC ansatz in determining privacy vulnerabilities. While the DLA has previously been linked to the classical simulatability and trainability of VQC models, this work, for the first time, establishes its connection to the privacy of VQC models. In particular, we show that properties conducive to the trainability of VQCs, such as a polynomial-sized DLA, also facilitate the extraction of detailed snapshots of the input. We term this a weak privacy breach, as the snapshots enable training VQC models for distinct learning tasks without direct access to the original input. Further, we investigate the conditions for a strong privacy breach where the original input data can be recovered from these snapshots by classical or quantum-assisted polynomial time methods. We establish conditions on the encoding map such as classical simulatability, overlap with DLA basis, and its Fourier frequency characteristics that enable such a privacy breach of VQC models. Our findings thus play a crucial role in detailing the prospects of quantum privacy advantage by guiding the requirements for designing quantum machine learning models that balance trainability with robust privacy protection.

arxiv情報

著者 Jamie Heredge,Niraj Kumar,Dylan Herman,Shouvanik Chakrabarti,Romina Yalovetzky,Shree Hari Sureshbabu,Marco Pistoia
発行日 2024-05-14 17:49:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク