要約
自律飛行ロボット、例:
マルチローターは、多くの場合、カメラ画像に基づいて予測を行うニューラル ネットワークに依存します。
これらの深層学習 (DL) モデルは、トレーニング ドメイン外の入力画像に適用すると、驚くべき結果を計算できます。
敵対的攻撃は、たとえば、ニューラル ネットワークの予測を操作するために環境に配置できる小さな画像、いわゆる敵対的パッチを計算することによってこの欠陥を悪用します。
飛行敵対的パッチを導入します。このパッチでは、画像が別の飛行ロボットにマウントされるため、被害者のマルチコプターの視野内のどこにでも配置できます。
効果的な攻撃を実現するために、敵対的パッチと入力画像内のその位置を同時に最適化する 3 つの方法を比較します。
私たちは、自律型マルチコプタの公的に利用可能な DL モデルとデータセットに対して実証的検証を実行します。
最終的には、攻撃側のマルチコプターは、被害側のマルチコプターの動きを完全に制御できるようになります。
要約(オリジナル)
Autonomous flying robots, e.g. multirotors, often rely on a neural network that makes predictions based on a camera image. These deep learning (DL) models can compute surprising results if applied to input images outside the training domain. Adversarial attacks exploit this fault, for example, by computing small images, so-called adversarial patches, that can be placed in the environment to manipulate the neural network’s prediction. We introduce flying adversarial patches, where an image is mounted on another flying robot and therefore can be placed anywhere in the field of view of a victim multirotor. For an effective attack, we compare three methods that simultaneously optimize the adversarial patch and its position in the input image. We perform an empirical validation on a publicly available DL model and dataset for autonomous multirotors. Ultimately, our attacking multirotor would be able to gain full control over the motions of the victim multirotor.
arxiv情報
著者 | Pia Hanfeld,Marina M. -C. Höhne,Michael Bussmann,Wolfgang Hönig |
発行日 | 2023-05-22 09:35:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google