ALMOST: Adversarial Learning to Mitigate Oracle-less ML Attacks via Synthesis Tuning

要約

オラクルレス機械学習(ML)攻撃により、様々な論理ロック方式が破られた。面積-電力-遅延の最適化を目的とした通常の合成では、キーゲートの局所性が学習に対して脆弱なネットリストが生成されます。そこで、セキュリティを考慮した論理合成が必要である。我々は、合成のチューニングによってオラクルレスML攻撃を軽減するための敵対的学習のフレームワークであるALMOSTを提案する。ALMOSTは、シミュレーテッドアニーリングに基づく合成レシピ生成器を用い、レシピとキーゲートの局所性の広い範囲において、最先端の攻撃の精度を予測できる敵対的学習モデルを採用する。ISCASベンチマークを用いた実験では、ALMOSTで合成された回路の攻撃精度が50%程度まで低下することが確認されましたが、設計の最適化は損なわれていません。

要約(オリジナル)

Oracle-less machine learning (ML) attacks have broken various logic locking schemes. Regular synthesis, which is tailored for area-power-delay optimization, yields netlists where key-gate localities are vulnerable to learning. Thus, we call for security-aware logic synthesis. We propose ALMOST, a framework for adversarial learning to mitigate oracle-less ML attacks via synthesis tuning. ALMOST uses a simulated-annealing-based synthesis recipe generator, employing adversarially trained models that can predict state-of-the-art attacks’ accuracies over wide ranges of recipes and key-gate localities. Experiments on ISCAS benchmarks confirm the attacks’ accuracies drops to around 50\% for ALMOST-synthesized circuits, all while not undermining design optimization.

arxiv情報

著者 Animesh Basak Chowdhury,Lilas Alrahis,Luca Collini,Johann Knechtel,Ramesh Karri,Siddharth Garg,Ozgur Sinanoglu,Benjamin Tan
発行日 2023-03-06 18:55:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.LG パーマリンク