AdvLogo: Adversarial Patch Attack against Object Detectors based on Diffusion Models

要約

ディープラーニングの急速な発展に伴い、物体検出器は目覚ましい性能を発揮しているが、特定のシナリオでは脆弱性が依然として存在する。敵対的なパッチを用いて脆弱性を探索する現在の研究は、しばしば攻撃効果と視覚的品質との間のトレードオフのバランスを取るのに苦労している。この問題に対処するために、我々は意味的観点からパッチ攻撃の新しいフレームワークを提案する。あらゆる意味空間には、画像検出器が物体の認識に失敗する原因となる敵対的な部分空間が存在するという仮説に基づき、我々は拡散ノイズ除去プロセスの意味的理解を活用し、最後のタイムステップで潜在埋め込みと無条件埋め込みに摂動を与えることで、プロセスを敵対的な部分領域へと誘導する。画質への悪影響を露呈する分布シフトを緩和するために、フーリエ変換を用いた周波数領域での潜在への摂動を適用する。実験結果は、AdvLogoが高い視覚的品質を維持しながら、強力な攻撃性能を達成することを示している。

要約(オリジナル)

With the rapid development of deep learning, object detectors have demonstrated impressive performance; however, vulnerabilities still exist in certain scenarios. Current research exploring the vulnerabilities using adversarial patches often struggles to balance the trade-off between attack effectiveness and visual quality. To address this problem, we propose a novel framework of patch attack from semantic perspective, which we refer to as AdvLogo. Based on the hypothesis that every semantic space contains an adversarial subspace where images can cause detectors to fail in recognizing objects, we leverage the semantic understanding of the diffusion denoising process and drive the process to adversarial subareas by perturbing the latent and unconditional embeddings at the last timestep. To mitigate the distribution shift that exposes a negative impact on image quality, we apply perturbation to the latent in frequency domain with the Fourier Transform. Experimental results demonstrate that AdvLogo achieves strong attack performance while maintaining high visual quality.

arxiv情報

著者 Boming Miao,Chunxiao Li,Yao Zhu,Weixiang Sun,Zizhe Wang,Xiaoyi Wang,Chuanlong Xie
発行日 2025-03-03 04:32:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク