要約
タイトル: Mole Recruitment: Poisoning of Image Classifiers via Selective Batch Sampling
要約:
– 画像の操作やラベルの改変なしに、機械学習モデルを困惑させるデータの汚染攻撃を発表。
– これは、単にトレーニングデータ自体の最も混乱する自然なサンプルを利用することで達成され、新しい種類のターゲット型攻撃としてMole Recruitmentと呼ばれている。
– 私たちは、あるクラスのトレーニングサンプルが他のクラスのサンプルに最も似ているもの(モール)と定義し、適切な数のモールを持つトレーニングバッチの構造を単純に再構築するだけで、対象クラスの性能が大幅に低下する可能性があることを示した。
– 私たちは、いくつかの標準的な画像分類データセットでオフライン環境でこの新しい攻撃の効果を示し、継続的学習(CL)の環境でこの攻撃の実世界的な実現可能性を実証しています。
– 私たちの分析は、最新のモデルもMole Recruitmentに対して脆弱であることを明らかにし、画像分類器の以前に検出されていなかった脆弱性をさらけ出しています。
要約(オリジナル)
In this work, we present a data poisoning attack that confounds machine learning models without any manipulation of the image or label. This is achieved by simply leveraging the most confounding natural samples found within the training data itself, in a new form of a targeted attack coined ‘Mole Recruitment.’ We define moles as the training samples of a class that appear most similar to samples of another class, and show that simply restructuring training batches with an optimal number of moles can lead to significant degradation in the performance of the targeted class. We show the efficacy of this novel attack in an offline setting across several standard image classification datasets, and demonstrate the real-world viability of this attack in a continual learning (CL) setting. Our analysis reveals that state-of-the-art models are susceptible to Mole Recruitment, thereby exposing a previously undetected vulnerability of image classifiers.
arxiv情報
著者 | Ethan Wisdom,Tejas Gokhale,Chaowei Xiao,Yezhou Yang |
発行日 | 2023-03-30 00:59:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI