Exploiting Logic Locking for a Neural Trojan Attack on Machine Learning Accelerators

要約

タイトル:機械学習アクセラレーターに対するニューラルトロイの攻撃で論理ロックを利用する

要約:

– 論理ロックは、知的財産(IP)を保護するために提案されている。デザイン内の論理回路モジュールのサブセットを秘密鍵に依存させることで、不正な使用を制限することができる。
– 機械学習アクセラレーターは論理ロックの一般的な対象であり、特にマシンラーニングサービスが普及するにつれ、ますます注目されるようになっている。
– 本研究では、論理ロックを利用して保護されたニューラルアクセラレーターのセキュリティを危険にさらす方法を探求する。
– 特に、不正な鍵によって引き起こされる決定的なエラーを利用して、ニューラルトロイアンスタイルのバックドアを生成する方法を示す。
– この攻撃シナリオを検討し、トロイの鍵と呼ばれる特定の不正な鍵を選択することで、攻撃者が指定した入力クラスの誤分類を引き起こすことができる。
– また、トロイの鍵を自動的に特定する理論的に堅牢な攻撃方法を開発し、いくつかのロックされたアクセラレーターに対して攻撃を行う。
– 最大のベンチマークアクセラレーターでは、攻撃者が指定したトリガー入力に対して分類の正確性が74%減少し、他の入力に対しては平均1.7%の精度低下が生じた。

要約(オリジナル)

Logic locking has been proposed to safeguard intellectual property (IP) during chip fabrication. Logic locking techniques protect hardware IP by making a subset of combinational modules in a design dependent on a secret key that is withheld from untrusted parties. If an incorrect secret key is used, a set of deterministic errors is produced in locked modules, restricting unauthorized use. A common target for logic locking is neural accelerators, especially as machine-learning-as-a-service becomes more prevalent. In this work, we explore how logic locking can be used to compromise the security of a neural accelerator it protects. Specifically, we show how the deterministic errors caused by incorrect keys can be harnessed to produce neural-trojan-style backdoors. To do so, we first outline a motivational attack scenario where a carefully chosen incorrect key, which we call a trojan key, produces misclassifications for an attacker-specified input class in a locked accelerator. We then develop a theoretically-robust attack methodology to automatically identify trojan keys. To evaluate this attack, we launch it on several locked accelerators. In our largest benchmark accelerator, our attack identified a trojan key that caused a 74\% decrease in classification accuracy for attacker-specified trigger inputs, while degrading accuracy by only 1.7\% for other inputs on average.

arxiv情報

著者 Hongye Xu,Dongfang Liu,Cory Merkel,Michael Zuzack
発行日 2023-04-12 17:55:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.AR, cs.CR パーマリンク