Transformation-Dependent Adversarial Attacks

要約

我々は、変換依存型の敵対的攻撃を導入します。これは、単一の追加的な摂動が、入力を体系的に変換 (スケーリング、ぼかし、圧縮など) することによって、多様で制御可能な予測ミスを引き起こす可能性がある新しいクラスの脅威です。
静的な効果を持つ従来の攻撃とは異なり、私たちの摂動には変成的なプロパティが組み込まれており、変換パラメータの関数としてさまざまな敵対的攻撃を可能にします。
私たちは、モデル (畳み込みネットワークやビジョン トランスフォーマーなど) とビジョン タスク (画像分類やオブ​​ジェクト検出など) にわたる変換依存の脆弱性を実証します。
私たちが提案する幾何学的変換とフォトメトリック変換により、1 つの細工された入力からの範囲を対象としたエラーが可能になります (たとえば、分類器の攻撃成功率が 90% を超えるなど)。
モデル アーキテクチャと変換の種類/種類が攻撃の有効性に及ぼす影響を分析します。
この取り組みは、敵対的な入力を動的で制御可能な脅威として再定義することにより、パラダイム シフトを強制します。
私たちは、現在の技術では十分に準備ができていない、このような多面的なカメレオンのような摂動に対する堅牢な防御の必要性を強調します。

要約(オリジナル)

We introduce transformation-dependent adversarial attacks, a new class of threats where a single additive perturbation can trigger diverse, controllable mis-predictions by systematically transforming the input (e.g., scaling, blurring, compression). Unlike traditional attacks with static effects, our perturbations embed metamorphic properties to enable different adversarial attacks as a function of the transformation parameters. We demonstrate the transformation-dependent vulnerability across models (e.g., convolutional networks and vision transformers) and vision tasks (e.g., image classification and object detection). Our proposed geometric and photometric transformations enable a range of targeted errors from one crafted input (e.g., higher than 90% attack success rate for classifiers). We analyze effects of model architecture and type/variety of transformations on attack effectiveness. This work forces a paradigm shift by redefining adversarial inputs as dynamic, controllable threats. We highlight the need for robust defenses against such multifaceted, chameleon-like perturbations that current techniques are ill-prepared for.

arxiv情報

著者 Yaoteng Tan,Zikui Cai,M. Salman Asif
発行日 2024-06-12 17:31:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク