要約
敵対的パッチ攻撃は、深層学習システムの実際の展開に重大な脅威をもたらします。
しかし、既存の研究は主に画像の前処理防御に焦点を当てており、多くの場合、クリーンな画像の分類精度が低下し、物理的に実行可能な攻撃に効果的に対抗できません。
この論文では、画像情報の分布内の異常としての敵対的パッチの動作を調査し、この洞察を活用して堅牢な防御戦略を開発します。
私たちが提案する防御メカニズムは、DBSCAN と呼ばれるクラスタリング ベースの技術を利用して異常な画像セグメントを分離します。これは、セグメント化、分離、ブロックの各フェーズで構成される 3 段階のパイプラインによって実行され、敵対的なノイズを特定して軽減します。
敵対的なコンポーネントを特定すると、代替の置換オプションを超えて平均ピクセル値に置き換えることによってそれらを無力化します。
当社のモデルに依存しない防御メカニズムは、複数のモデルとデータセットにわたって評価され、画像分類タスクにおけるさまざまな敵対的パッチ攻撃に対抗する有効性を実証しています。
私たちが提案したアプローチは精度を大幅に向上させ、防御なしの 38.8\% から LaVAN および GoogleAp 攻撃に対する防御ありの 67.1\% に増加し、LGS (53.86\%) や Jujuku (60%) などの著名な最先端の手法を上回りました。
\%)
要約(オリジナル)
Adversarial patch attacks pose a significant threat to the practical deployment of deep learning systems. However, existing research primarily focuses on image pre-processing defenses, which often result in reduced classification accuracy for clean images and fail to effectively counter physically feasible attacks. In this paper, we investigate the behavior of adversarial patches as anomalies within the distribution of image information and leverage this insight to develop a robust defense strategy. Our proposed defense mechanism utilizes a clustering-based technique called DBSCAN to isolate anomalous image segments, which is carried out by a three-stage pipeline consisting of Segmenting, Isolating, and Blocking phases to identify and mitigate adversarial noise. Upon identifying adversarial components, we neutralize them by replacing them with the mean pixel value, surpassing alternative replacement options. Our model-agnostic defense mechanism is evaluated across multiple models and datasets, demonstrating its effectiveness in countering various adversarial patch attacks in image classification tasks. Our proposed approach significantly improves accuracy, increasing from 38.8\% without the defense to 67.1\% with the defense against LaVAN and GoogleAp attacks, surpassing prominent state-of-the-art methods such as LGS (53.86\%) and Jujutsu (60\%)
arxiv情報
著者 | Nandish Chattopadhyay,Amira Guesmi,Muhammad Shafique |
発行日 | 2024-02-09 08:52:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google