Physical Adversarial Attacks for Surveillance: A Survey

要約

タイトル:監視に対する物理的な敵対的攻撃:サーベイ

要約:

– 近代的な自動監視技術は、深層学習手法に大きく依存している。
– しかし、これらの学習システムは、敵対的攻撃に対して本来脆弱であり、誤った予測を行うように設計された悪意のある入力によって欺かれる可能性がある。
– 物理的敵対的攻撃は、敵対的なTシャツ、メガネ、帽子を着用するか、特定の行動をすることで容易に姿を変えられ、監視システムの検出、追跡、認識を回避することができる。
– この論文は、監視アプリケーション向けに物理的敵対的攻撃を学習および設計する最近の試みと発見をレビューする。
– 特に、物理的敵対的攻撃を分析するフレームワークを提案し、このフレームワークの下で、検出、識別、追跡、およびアクション認識の4つのキー監視タスクに対する物理的敵対的攻撃について包括的な調査を行う。
– さらに、物理的敵対的攻撃に対する防御策とその防御強度を評価する方法もレビューし、監視システムの強靭さを向上させるための重要な洞察を提供する。

要約(オリジナル)

Modern automated surveillance techniques are heavily reliant on deep learning methods. Despite the superior performance, these learning systems are inherently vulnerable to adversarial attacks – maliciously crafted inputs that are designed to mislead, or trick, models into making incorrect predictions. An adversary can physically change their appearance by wearing adversarial t-shirts, glasses, or hats or by specific behavior, to potentially avoid various forms of detection, tracking and recognition of surveillance systems; and obtain unauthorized access to secure properties and assets. This poses a severe threat to the security and safety of modern surveillance systems. This paper reviews recent attempts and findings in learning and designing physical adversarial attacks for surveillance applications. In particular, we propose a framework to analyze physical adversarial attacks and provide a comprehensive survey of physical adversarial attacks on four key surveillance tasks: detection, identification, tracking, and action recognition under this framework. Furthermore, we review and analyze strategies to defend against the physical adversarial attacks and the methods for evaluating the strengths of the defense. The insights in this paper present an important step in building resilience within surveillance systems to physical adversarial attacks.

arxiv情報

著者 Kien Nguyen,Tharindu Fernando,Clinton Fookes,Sridha Sridharan
発行日 2023-05-01 20:19:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク