要約
組み込みシステムにおける CPU と GPU の能力の向上により、深層学習モデルを使用した物体検出システムがロボット工学分野でますます普及しています。
ただし、これらのモデルは敵対的な攻撃を受けやすいです。
一部の攻撃は検出システムへのアクセスに関する厳密な仮定によって制限されていますが、私たちは暗号化における中間者攻撃にヒントを得た新しいハードウェア攻撃を提案します。
この攻撃は、Universal Adversarial Perturbation (UAP) を生成し、ハードウェア攻撃を介して USB カメラと検出システムの間に摂動を注入します。
さらに、先行研究は、攻撃パフォーマンスではなくモデルの精度を測定する評価基準によって誤解されています。
私たちが提案した評価指標と組み合わせることで、敵対的な摂動の強度が大幅に向上します。
これらの発見は、自動運転などの安全性が重要なシステムにおける深層学習モデルの適用に対して深刻な懸念を引き起こします。
要約(オリジナル)
Object detection systems using deep learning models have become increasingly popular in robotics thanks to the rising power of CPUs and GPUs in embedded systems. However, these models are susceptible to adversarial attacks. While some attacks are limited by strict assumptions on access to the detection system, we propose a novel hardware attack inspired by Man-in-the-Middle attacks in cryptography. This attack generates an Universal Adversarial Perturbation (UAP) and then inject the perturbation between the USB camera and the detection system via a hardware attack. Besides, prior research is misled by an evaluation metric that measures the model accuracy rather than the attack performance. In combination with our proposed evaluation metrics, we significantly increases the strength of adversarial perturbations. These findings raise serious concerns for applications of deep learning models in safety-critical systems, such as autonomous driving.
arxiv情報
著者 | Han Wu,Sareh Rowlands,Johan Wahlstrom |
発行日 | 2023-08-21 22:42:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google