Area is all you need: repeatable elements make stronger adversarial attacks

要約

過去 10 年にわたり、ディープ ニューラル ネットワークはコンピューター ビジョン タスクにおいて最先端の技術を実現してきました。
ただし、これらのモデルは、敵対的な例として知られる異常な入力の影響を受けやすく、誤分類を引き起こしたり、オブジェクトの検出に失敗したりします。
ここでは、敵対的攻撃の成功率が増加しているのは、主にその規模の拡大によるものであるという証拠を示します。
次に、反復可能な要素から敵対的パターンを構築することで、可能な限り最大の敵対的パッチを生成する方法を示します。
このアプローチは、YOLOv2 および YOLOv3 による検出を回避する新しい最先端技術を実現します。
最後に、この分野で公開されたいくつかの攻撃の以前の成功を再現できなかった実験を紹介し、テストと再現性に関するいくつかのコメントで終わります。

要約(オリジナル)

Over the last decade, deep neural networks have achieved state of the art in computer vision tasks. These models, however, are susceptible to unusual inputs, known as adversarial examples, that cause them to misclassify or otherwise fail to detect objects. Here, we provide evidence that the increasing success of adversarial attacks is primarily due to increasing their size. We then demonstrate a method for generating the largest possible adversarial patch by building a adversarial pattern out of repeatable elements. This approach achieves a new state of the art in evading detection by YOLOv2 and YOLOv3. Finally, we present an experiment that fails to replicate the prior success of several attacks published in this field, and end with some comments on testing and reproducibility.

arxiv情報

著者 Dillon Niederhut
発行日 2023-06-13 13:33:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク