Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural Networks with Neuromorphic Data

要約

ディープニューラルネットワーク(DNN)は、画像認識や音声認識など、さまざまなタスクで目覚ましい性能を発揮している。しかし、DNNの有効性を最大化するには、学習を通じて多数のハイパーパラメータとネットワークパラメータを綿密に最適化する必要がある。さらに、高性能なDNNは多くのパラメータを必要とするため、学習時に大きなエネルギーを消費する。このような課題を克服するため、研究者たちは、エネルギー効率が向上し、生物学的に妥当なデータ処理能力を提供するスパイキングニューラルネットワーク(SNN)に注目し、特にニューロモルフィックデータのような感覚データのタスクに非常に適しているとしている。その利点にもかかわらず、SNNはDNNと同様に、敵対的な例やバックドア攻撃など、さまざまな脅威の影響を受けやすい。しかし、SNNの分野では、これらの攻撃を理解し、対抗するという点で、まだ探求が必要である。 本稿では、ニューロモルフィックデータセットと多様なトリガーを用いて、SNNにおけるバックドア攻撃を掘り下げる。具体的には、ニューロモーフィック・データ内の位置や色を操作できるバックドア・トリガーを探索し、画像のような領域における従来のトリガーよりも幅広い可能性を提供する。様々な攻撃戦略を提示し、クリーンな精度への影響を無視しながら、最大100%の攻撃成功率を達成する。さらに、これらの攻撃のステルス性を評価し、我々の最も強力な攻撃が重要なステルス能力を有することを明らかにする。最後に、画像領域からいくつかの最先端の防御を適応させ、ニューロモルフィックデータでの有効性を評価し、性能が低下する例を明らかにする。

要約(オリジナル)

Deep neural networks (DNNs) have demonstrated remarkable performance across various tasks, including image and speech recognition. However, maximizing the effectiveness of DNNs requires meticulous optimization of numerous hyperparameters and network parameters through training. Moreover, high-performance DNNs entail many parameters, which consume significant energy during training. In order to overcome these challenges, researchers have turned to spiking neural networks (SNNs), which offer enhanced energy efficiency and biologically plausible data processing capabilities, rendering them highly suitable for sensory data tasks, particularly in neuromorphic data. Despite their advantages, SNNs, like DNNs, are susceptible to various threats, including adversarial examples and backdoor attacks. Yet, the field of SNNs still needs to be explored in terms of understanding and countering these attacks. This paper delves into backdoor attacks in SNNs using neuromorphic datasets and diverse triggers. Specifically, we explore backdoor triggers within neuromorphic data that can manipulate their position and color, providing a broader scope of possibilities than conventional triggers in domains like images. We present various attack strategies, achieving an attack success rate of up to 100\% while maintaining a negligible impact on clean accuracy. Furthermore, we assess these attacks’ stealthiness, revealing that our most potent attacks possess significant stealth capabilities. Lastly, we adapt several state-of-the-art defenses from the image domain, evaluating their efficacy on neuromorphic data and uncovering instances where they fall short, leading to compromised performance.

arxiv情報

著者 Gorka Abad,Oguzhan Ersoy,Stjepan Picek,Aitor Urbieta
発行日 2023-07-03 07:03:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク