Detection of Adversarial Physical Attacks in Time-Series Image Data

要約

タイトル:時系列画像データにおける敵対的物理攻撃の検出

要約:
– DNN(Deep Neural Network)は、入力画像に関して環境を認識することができるため、自律システムにおいて一般的なセンシング手法となっている。
– しかし、DNNモデルは敵対的なデジタル攻撃や物理攻撃に対して、脆弱であることが指摘されている。
– 単一の入力画像に対して敵対的なデジタルノイズが加えられたかどうかを検出するために、様々な検出フレームワークが提案されている。
– 本論文では、先行研究で提案された敵対的物理攻撃に対するリアルタイム検出器であるVisionGuard(VG)をさらに発展させ、時系列画像データ、すなわちビデオにおける敵対的物理攻撃を検出するVisionGuard*(VG)を提案する。
– 本研究は、ビデオを収集することが自律システムの決定のために重要である自動運転システムなどのアプリケーションにおいて、多数決メカニズムが一般的であることに着目している。
– VG*は、先鋭的な物理攻撃によって生成されたクリーンなビデオと物理攻撃された信号のビデオを評価し、分布外データとデジタル攻撃された画像のために設計された検出器との比較実験を提供することにより、幅広い比較実験を提供している。

要約(オリジナル)

Deep neural networks (DNN) have become a common sensing modality in autonomous systems as they allow for semantically perceiving the ambient environment given input images. Nevertheless, DNN models have proven to be vulnerable to adversarial digital and physical attacks. To mitigate this issue, several detection frameworks have been proposed to detect whether a single input image has been manipulated by adversarial digital noise or not. In our prior work, we proposed a real-time detector, called VisionGuard (VG), for adversarial physical attacks against single input images to DNN models. Building upon that work, we propose VisionGuard* (VG), which couples VG with majority-vote methods, to detect adversarial physical attacks in time-series image data, e.g., videos. This is motivated by autonomous systems applications where images are collected over time using onboard sensors for decision-making purposes. We emphasize that majority-vote mechanisms are quite common in autonomous system applications (among many other applications), as e.g., in autonomous driving stacks for object detection. In this paper, we investigate, both theoretically and experimentally, how this widely used mechanism can be leveraged to enhance the performance of adversarial detectors. We have evaluated VG* on videos of both clean and physically attacked traffic signs generated by a state-of-the-art robust physical attack. We provide extensive comparative experiments against detectors that have been designed originally for out-of-distribution data and digitally attacked images.

arxiv情報

著者 Ramneet Kaur,Yiannis Kantaros,Wenwen Si,James Weimer,Insup Lee
発行日 2023-04-27 02:08:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク