Certified Robustness of Quantum Classifiers against Adversarial Examples through Quantum Noise

要約

タイトル:「量子ノイズを介した量子分類器の認定された強靭性」
要約:
– 量子分類器は、人間には認知できないノイズによって誤分類されることがわかっている。
– この論文では、量子ランダム回転ノイズを追加することで、量子分類器を敵対的攻撃から守ることができることが理論的に示された。
– 差分プライバシーの定義に基づいて、加算ノイズが自然に存在する量子分類器が差分プライバシーであることが示された。
– 最後に、IBMの7キュビットデバイスのノイズをシミュレートした実験結果に基づいて、認定された強靭性の上限が導出された。

要約(オリジナル)

Recently, quantum classifiers have been found to be vulnerable to adversarial attacks, in which quantum classifiers are deceived by imperceptible noises, leading to misclassification. In this paper, we propose the first theoretical study demonstrating that adding quantum random rotation noise can improve robustness in quantum classifiers against adversarial attacks. We link the definition of differential privacy and show that the quantum classifier trained with the natural presence of additive noise is differentially private. Finally, we derive a certified robustness bound to enable quantum classifiers to defend against adversarial examples, supported by experimental results simulated with noises from IBM’s 7-qubits device.

arxiv情報

著者 Jhih-Cing Huang,Yu-Lin Tsai,Chao-Han Huck Yang,Cheng-Fang Su,Chia-Mu Yu,Pin-Yu Chen,Sy-Yen Kuo
発行日 2023-04-28 05:32:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, cs.NE, eess.SP, quant-ph パーマリンク