Cross-Task Attack: A Self-Supervision Generative Framework Based on Attention Shift

要約

人工知能 (AI) システムに対する敵対的攻撃を研究することは、モデルの欠点を発見するのに役立ち、より堅牢なシステムの構築を可能にします。
既存の敵対的攻撃手法のほとんどは、単一タスクの単一モデルまたは単一タスクのクロスモデルのシナリオにのみ焦点を当てており、人工知能システムのマルチタスク特性を見落としています。
その結果、既存の攻撃のほとんどは、包括的で協調的な AI システムに対して実質的な脅威をもたらすことはありません。
ただし、同じ画像に対する異なるタスクの実際のラベルを取得したり、異なるタスク間で損失関数を調和させたりすることが難しいため、クロスタスク攻撃の実装は非常に要求が厳しく、困難です。
この問題に対処するために、私たちは自己監視型クロスタスク攻撃フレームワーク (CTA) を提案します。これは、同時注意マップと反注意マップを利用して、タスク間敵対的摂動を生成します。
具体的には、共注意マップは、異なる視覚タスク モデルが注意を払う領域を反映し、反注意マップは、異なる視覚タスク モデルが無視する領域を反映します。
CTA は、サンプルの注意領域を共注意マップから遠ざけ、反注意マップに近づけることによって、クロスタスク摂動を生成します。
私たちはマルチビジョンタスクに関する広範な実験を実施し、その実験結果により、敵対的攻撃に対する提案された設計の有効性が確認されました。

要約(オリジナル)

Studying adversarial attacks on artificial intelligence (AI) systems helps discover model shortcomings, enabling the construction of a more robust system. Most existing adversarial attack methods only concentrate on single-task single-model or single-task cross-model scenarios, overlooking the multi-task characteristic of artificial intelligence systems. As a result, most of the existing attacks do not pose a practical threat to a comprehensive and collaborative AI system. However, implementing cross-task attacks is highly demanding and challenging due to the difficulty in obtaining the real labels of different tasks for the same picture and harmonizing the loss functions across different tasks. To address this issue, we propose a self-supervised Cross-Task Attack framework (CTA), which utilizes co-attention and anti-attention maps to generate cross-task adversarial perturbation. Specifically, the co-attention map reflects the area to which different visual task models pay attention, while the anti-attention map reflects the area that different visual task models neglect. CTA generates cross-task perturbations by shifting the attention area of samples away from the co-attention map and closer to the anti-attention map. We conduct extensive experiments on multiple vision tasks and the experimental results confirm the effectiveness of the proposed design for adversarial attacks.

arxiv情報

著者 Qingyuan Zeng,Yunpeng Gong,Min Jiang
発行日 2024-07-18 17:01:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク