Network transferability of adversarial patches in real-time object detection

要約

コンピューター ビジョンの敵対的パッチを使用すると、ディープ ニューラル ネットワークを騙し、その意思決定プロセスを操作することができます。
敵対的パッチの最も顕著な例の 1 つは、オブジェクト検出器に対する回避攻撃です。
これらのパッチは、対象のオブジェクトの一部を覆うことで検出を抑制し、オブジェクト検出器に対してターゲット オブジェクトを「見えなく」します。
これらのパッチは通常、特定のトレイン データセットを使用する特定のネットワーク上で最適化されるため、複数のネットワークおよびデータセット間での転送可能性は提供されません。
このペーパーでは、これらの問題に対処し、多数の物体検出器アーキテクチャ間での移行可能性を調査します。
2 つの異なるデータセットでさまざまなモデルにわたる広範な評価を行った結果、より大きなモデルで最適化されたパッチは、より小さなモデルで最適化されたパッチよりも優れたネットワーク転送性を提供することがわかりました。

要約(オリジナル)

Adversarial patches in computer vision can be used, to fool deep neural networks and manipulate their decision-making process. One of the most prominent examples of adversarial patches are evasion attacks for object detectors. By covering parts of objects of interest, these patches suppress the detections and thus make the target object ‘invisible’ to the object detector. Since these patches are usually optimized on a specific network with a specific train dataset, the transferability across multiple networks and datasets is not given. This paper addresses these issues and investigates the transferability across numerous object detector architectures. Our extensive evaluation across various models on two distinct datasets indicates that patches optimized with larger models provide better network transferability than patches that are optimized with smaller models.

arxiv情報

著者 Jens Bayer,Stefan Becker,David Münch,Michael Arens
発行日 2024-08-28 14:47:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク