要約
【タイトル】量子微分プライバシー:情報理論的な観点
【要約】
– 微分プライバシーは、古典計算において証明可能なセキュリティ保証を提供するコンセプトであり、量子計算にも拡張されている。
– 古典計算では人工的にノイズを加えることで微分プライバシーを達成するが、近い将来に実現される量子コンピュータは本質的にノイズがあるため、自然な微分プライバシーの特徴を持つことが観察されている。
– 本論文では、量子の微分プライバシーを量子ダイバージェンスとして情報理論的な枠組みで論じる。このアプローチの主な利点は、微分プライバシーが計算結果の出力状態に基づく性質であり、測定ごとに確認する必要がないことである。これにより、簡単な証明や一般的な性質の陳述などが可能になり、一般的なノイズモデルや量子回路、量子機械学習概念のいくつかの新しい上限も提供される。
– 特に、あるレベルの微分プライバシーを達成するために必要なノイズ量と、計算を無意味にするために必要なノイズ量との違いに焦点を当てている。
– 最後に、古典的なローカル微分プライバシーやレニー微分プライバシー、仮説検定の解釈を量子設定に一般化して、いくつかの新しい性質や理解が提供される。
要約(オリジナル)
Differential privacy has been an exceptionally successful concept when it comes to providing provable security guarantees for classical computations. More recently, the concept was generalized to quantum computations. While classical computations are essentially noiseless and differential privacy is often achieved by artificially adding noise, near-term quantum computers are inherently noisy and it was observed that this leads to natural differential privacy as a feature. In this work we discuss quantum differential privacy in an information theoretic framework by casting it as a quantum divergence. A main advantage of this approach is that differential privacy becomes a property solely based on the output states of the computation, without the need to check it for every measurement. This leads to simpler proofs and generalized statements of its properties as well as several new bounds for both, general and specific, noise models. In particular, these include common representations of quantum circuits and quantum machine learning concepts. Here, we focus on the difference in the amount of noise required to achieve certain levels of differential privacy versus the amount that would make any computation useless. Finally, we also generalize the classical concepts of local differential privacy, Renyi differential privacy and the hypothesis testing interpretation to the quantum setting, providing several new properties and insights.
arxiv情報
著者 | Christoph Hirche,Cambyse Rouzé,Daniel Stilck França |
発行日 | 2023-04-06 08:45:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI