RSC-SNN: Exploring the Trade-off Between Adversarial Robustness and Accuracy in Spiking Neural Networks via Randomized Smoothing Coding

要約

スパイキング ニューラル ネットワーク (SNN) は、その独特のニューロン ダイナミクスと低消費電力の性質により、広く注目を集めています。
これまでの研究では、小規模のデータセットでは、ポアソン符号化を使用した SNN が人工ニューラル ネットワーク (ANN) よりも堅牢であることが実証的に示されています。
ただし、SNN の敵対的堅牢性がどのように導出されるのか、また SNN が大規模なデータセット タスクでも敵対的堅牢性の利点を維持できるかどうかは、理論的にはまだ不明です。
この研究は、SNN 固有の敵対的堅牢性がそのポアソン符号化に由来することを理論的に示しています。
防御戦略におけるポアソン符号化とランダム化平滑化の概念的な同等性を明らかにし、提案されたランダム化平滑化符号化(RSC)法を介して、SNN の精度と敵対的堅牢性の間のトレードオフを詳細に分析します。
実験では、提案された RSC-SNN が顕著な敵対的堅牢性を示し、ANN を上回り、大規模データセット ImageNet 上で最先端の堅牢性結果を達成することが実証されています。
私たちのオープンソース実装コードは、https://github.com/KemingWu/RSC-SNN で入手できます。

要約(オリジナル)

Spiking Neural Networks (SNNs) have received widespread attention due to their unique neuronal dynamics and low-power nature. Previous research empirically shows that SNNs with Poisson coding are more robust than Artificial Neural Networks (ANNs) on small-scale datasets. However, it is still unclear in theory how the adversarial robustness of SNNs is derived, and whether SNNs can still maintain its adversarial robustness advantage on large-scale dataset tasks. This work theoretically demonstrates that SNN’s inherent adversarial robustness stems from its Poisson coding. We reveal the conceptual equivalence of Poisson coding and randomized smoothing in defense strategies, and analyze in depth the trade-off between accuracy and adversarial robustness in SNNs via the proposed Randomized Smoothing Coding (RSC) method. Experiments demonstrate that the proposed RSC-SNNs show remarkable adversarial robustness, surpassing ANNs and achieving state-of-the-art robustness results on large-scale dataset ImageNet. Our open-source implementation code is available at this https URL: https://github.com/KemingWu/RSC-SNN.

arxiv情報

著者 Keming Wu,Man Yao,Yuhong Chou,Xuerui Qiu,Rui Yang,Bo Xu,Guoqi Li
発行日 2024-07-29 15:26:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク