要約
敵対的な摂動は、入力に小さな知覚できないノイズを追加することにより、ニューラル ネットワークを欺く可能性があります。
トランスフォーマー バックボーンを備えた最近のオブジェクト トラッカーは、追跡データセットで優れたパフォーマンスを示していますが、その敵対的堅牢性は十分に評価されていません。
トランスフォーマー トラッカーはブラック ボックス攻撃に対して耐性がありますが、バックボーン アーキテクチャの違いにより、既存のホワイト ボックス敵対的攻撃はこれらの新しいトランス トラッカーに対して普遍的に適用できるわけではありません。
この研究では、予測されたオブジェクト バイナリ マスクを利用して堅牢なトランス トラッカーをターゲットにする新しいホワイト ボックス攻撃である TrackPGD を紹介します。
強力なセグメンテーション攻撃 SegPGD に基づいて構築された、私たちが提案する TrackPGD は、トランスフォーマーベースのトラッカーの決定に効果的に影響を与えます。
私たちの方法は、トラッカーのセグメンテーション攻撃に適応する際の 2 つの主要な課題、つまりクラス数の制限と極端なピクセル クラスの不均衡に対処します。
TrackPGD は、トラッカー ネットワークに対する他の攻撃手法と同じ反復回数を使用し、VOT2022STS、DAVIS2016、UAV123、GOT などのデータセット上で、MixFormerM、OSTrackSTS、TransT-SEG、RTS などのトランスおよび非トランスフォーマー トラッカーを誤解させる競合的な敵対的な例を生成します。
-10k。
要約(オリジナル)
Adversarial perturbations can deceive neural networks by adding small, imperceptible noise to the input. Recent object trackers with transformer backbones have shown strong performance on tracking datasets, but their adversarial robustness has not been thoroughly evaluated. While transformer trackers are resilient to black-box attacks, existing white-box adversarial attacks are not universally applicable against these new transformer trackers due to differences in backbone architecture. In this work, we introduce TrackPGD, a novel white-box attack that utilizes predicted object binary masks to target robust transformer trackers. Built upon the powerful segmentation attack SegPGD, our proposed TrackPGD effectively influences the decisions of transformer-based trackers. Our method addresses two primary challenges in adapting a segmentation attack for trackers: limited class numbers and extreme pixel class imbalance. TrackPGD uses the same number of iterations as other attack methods for tracker networks and produces competitive adversarial examples that mislead transformer and non-transformer trackers such as MixFormerM, OSTrackSTS, TransT-SEG, and RTS on datasets including VOT2022STS, DAVIS2016, UAV123, and GOT-10k.
arxiv情報
著者 | Fatemeh Nourilenjan Nokabadi,Yann Batiste Pequignot,Jean-Francois Lalonde,Christian Gagné |
発行日 | 2024-11-26 15:17:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google