Adversarial Patch Attacks and Defences in Vision-Based Tasks: A Survey

要約

AIモデルのセキュリティと堅牢性に対する信頼が欠如しているため、特にセーフティクリティカルシステムのディープラーニングモデルでの敵対的攻撃が近年ますます注目を集めています。
しかし、より原始的な敵対的攻撃は、物理的に実行不可能であるか、パッチ攻撃の出現を動機付けたトレーニングデータのようにアクセスが困難なリソースを必要とする可能性があります。
この調査では、敵対的なパッチ攻撃の既存の手法をカバーする包括的な概要を提供し、関心のある研究者がこの分野の進歩にすばやく追いつくのを支援することを目的としています。
また、コミュニティがこの分野とその現実世界での応用をよりよく理解できるようにすることを目的として、敵対的なパッチに対する検出と防御を開発するための既存の手法についても説明します。

要約(オリジナル)

Adversarial attacks in deep learning models, especially for safety-critical systems, are gaining more and more attention in recent years, due to the lack of trust in the security and robustness of AI models. Yet the more primitive adversarial attacks might be physically infeasible or require some resources that are hard to access like the training data, which motivated the emergence of patch attacks. In this survey, we provide a comprehensive overview to cover existing techniques of adversarial patch attacks, aiming to help interested researchers quickly catch up with the progress in this field. We also discuss existing techniques for developing detection and defences against adversarial patches, aiming to help the community better understand this field and its applications in the real world.

arxiv情報

著者 Abhijith Sharma,Yijun Bian,Phil Munz,Apurva Narayan
発行日 2022-06-16 17:06:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: A.1; I.2.6; I.4.m, cs.CR, cs.CV, cs.LG, eess.IV パーマリンク