要約
深層学習はロボットにとって安全ですか?
組み込みシステムがより強力な CPU と GPU にアクセスできるようになると、深層学習対応のオブジェクト検出システムがロボット アプリケーションに普及するようになります。
一方、先行研究では、深層学習モデルが敵対的攻撃に対して脆弱であることが明らかになりました。
これは現実世界のロボットを脅威にさらしますか?
私たちの研究は、オブジェクト検出システムを攻撃するために、Cryptography から Main-in-the-Middle 攻撃のアイデアを借りています。
私たちの実験結果は、強力な Universal Adversarial Perturbation (UAP) を 1 分以内に生成し、その摂動を使用して中間者攻撃を介して検出システムを攻撃できることを証明しています。
私たちの調査結果は、自動運転などの安全性が重要なシステムにおける深層学習モデルの適用について深刻な懸念を引き起こしています。
要約(オリジナル)
Is deep learning secure for robots? As embedded systems have access to more powerful CPUs and GPUs, deep-learning-enabled object detection systems become pervasive in robotic applications. Meanwhile, prior research unveils that deep learning models are vulnerable to adversarial attacks. Does this put real-world robots at threat? Our research borrows the idea of the Main-in-the-Middle attack from Cryptography to attack an object detection system. Our experimental results prove that we can generate a strong Universal Adversarial Perturbation (UAP) within one minute and then use the perturbation to attack a detection system via the Man-in-the-Middle attack. Our findings raise a serious concern over the applications of deep learning models in safety-critical systems such as autonomous driving.
arxiv情報
著者 | Han Wu,Sareh Rowlands,Johan Wahlstrom |
発行日 | 2022-08-15 13:21:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google