Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing System

要約

RRAM ベースのニューロモーフィック コンピューティング システムは、従来のアーキテクチャよりも優れたデータ処理能力とエネルギー効率のために爆発的な関心を集めており、多くのデータ中心のアプリケーションで広く使用されています。
したがって、NCS の信頼性とセキュリティの問題は、本質的な問題になります。
このホワイト ペーパーでは、RRAM ベースの NCS に対する敵対的な脅威を体系的に調査し、RRAM ハードウェア機能を利用して攻撃効果を強化できることを観察しました。
このように、異なる攻撃シナリオと目的に関して、2 種類のハードウェアを意識した攻撃手法を提案しました。
1 つ目は敵対的攻撃である VADER で、入力サンプルを混乱させてニューラル ネットワークの予測を誤った方向に導きます。
2 つ目は、障害挿入攻撃 (EFI) です。これは、指定されたサンプルがターゲット ラベルに分類されるようにネットワーク パラメーター空間を乱し、他のサンプルの予測精度を維持します。
どちらの攻撃方法も、RRAM の特性を利用して、従来の攻撃方法と比較してパフォーマンスを向上させます。
実験結果は、当社のハードウェア認識型攻撃方法が、攻撃のステルス性を維持しながら、非常に低い運用コストでほぼ 100% の攻撃成功率を達成できることを示しています。

要約(オリジナル)

The RRAM-based neuromorphic computing system has amassed explosive interests for its superior data processing capability and energy efficiency than traditional architectures, and thus being widely used in many data-centric applications. The reliability and security issues of the NCS therefore become an essential problem. In this paper, we systematically investigated the adversarial threats to the RRAM-based NCS and observed that the RRAM hardware feature can be leveraged to strengthen the attack effect, which has not been granted sufficient attention by previous algorithmic attack methods. Thus, we proposed two types of hardware-aware attack methods with respect to different attack scenarios and objectives. The first is adversarial attack, VADER, which perturbs the input samples to mislead the prediction of neural networks. The second is fault injection attack, EFI, which perturbs the network parameter space such that a specified sample will be classified to a target label, while maintaining the prediction accuracy on other samples. Both attack methods leverage the RRAM properties to improve the performance compared with the conventional attack methods. Experimental results show that our hardware-aware attack methods can achieve nearly 100% attack success rate with extremely low operational cost, while maintaining the attack stealthiness.

arxiv情報

著者 Hao Lv,Bing Li,Lei Zhang,Cheng Liu,Ying Wang
発行日 2023-02-20 10:57:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク