要約
機械学習(ML)モデルは主流になりつつありますが、特に敏感なアプリケーション領域では、データの漏れのリスクが懸念が高まっています。
メンバーシップ推論(MIA)のような攻撃は、訓練されたモデルが機密データを明らかにし、機密性を危険にさらす可能性があることを示しています。
従来の人工ニューラルネットワーク(ANN)がMLアプリケーションを支配していますが、神経型アーキテクチャ、特にスパイクニューラルネットワーク(SNN)は、生物学的ニューロンに似た低消費とイベント駆動の処理により、有望な代替手段として浮上しています。
Annsのプライバシーはよく研究されています。
ただし、SNNのプライバシーを提供するプロパティをほとんど調査していません。
このペーパーでは、SNNが本質的により良いプライバシーを提供するかどうかを調べます。
MIAを使用して、多様なデータセット全体でSNNとANNのプライバシーの回復力を評価します。
学習アルゴリズム(サロゲートグラデーションと進化的)、フレームワーク(Snntorch、Tennlab、LAVA)、およびSNNプライバシーのパラメーターの影響を分析します。
私たちの調査結果は、SNNがプライバシーの保存において一貫してANNよりも優れていることを示しており、進化的アルゴリズムは追加の回復力を提供します。
たとえば、CIFAR-10では、SNNSはANNSの0.82よりも有意に低い0.59のAUCを達成し、CIFAR-100では、SNNSはANNSの0.88と比較して0.58のAUCを維持します。
さらに、差別的にプライベートな確率的勾配降下(DPSGD)を備えたプライバシー – 活動性のトレードオフを調査し、SNNが同様のプライバシー制約の下でANNよりも精度の低下を維持することを発見しました。
要約(オリジナル)
While machine learning (ML) models are becoming mainstream, especially in sensitive application areas, the risk of data leakage has become a growing concern. Attacks like membership inference (MIA) have shown that trained models can reveal sensitive data, jeopardizing confidentiality. While traditional Artificial Neural Networks (ANNs) dominate ML applications, neuromorphic architectures, specifically Spiking Neural Networks (SNNs), are emerging as promising alternatives due to their low power consumption and event-driven processing, akin to biological neurons. Privacy in ANNs is well-studied; however, little work has explored the privacy-preserving properties of SNNs. This paper examines whether SNNs inherently offer better privacy. Using MIAs, we assess the privacy resilience of SNNs versus ANNs across diverse datasets. We analyze the impact of learning algorithms (surrogate gradient and evolutionary), frameworks (snnTorch, TENNLab, LAVA), and parameters on SNN privacy. Our findings show that SNNs consistently outperform ANNs in privacy preservation, with evolutionary algorithms offering additional resilience. For instance, on CIFAR-10, SNNs achieve an AUC of 0.59, significantly lower than ANNs’ 0.82, and on CIFAR-100, SNNs maintain an AUC of 0.58 compared to ANNs’ 0.88. Additionally, we explore the privacy-utility trade-off with Differentially Private Stochastic Gradient Descent (DPSGD), finding that SNNs sustain less accuracy loss than ANNs under similar privacy constraints.
arxiv情報
著者 | Ayana Moshruba,Ihsen Alouani,Maryam Parsa |
発行日 | 2025-02-21 15:55:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google