Indiscriminate Data Poisoning Attacks on Neural Networks

要約

データポイズニング攻撃は、悪意のある攻撃者がトレーニング プロセスに「ポイズニングされた」データを注入することでモデルに影響を与えることを目的としており、最近大きな注目を集めています。
この研究では、既存のポイズニング攻撃を詳しく調べ、それらを新旧のアルゴリズムと結び付けて、逐次シュタッケルベルク ゲームを解決します。
攻撃者にとって適切な損失関数を選択し、二次情報を利用するアルゴリズムで最適化することで、ニューラル ネットワークに対して効果的なポイズニング攻撃を設計します。
我々は、最新の自動微分パッケージを活用し、ポイズニング ポイントを 1 つずつ生成する既存の方法とは対照的に、数万のポイズニング ポイントを同時に調整して生成できる効率的な実装を紹介します。
さらに、ディープ ニューラル ネットワークに対するデータ ポイズニング攻撃の影響を実証的に調査する広範な実験を実行します。

要約(オリジナル)

Data poisoning attacks, in which a malicious adversary aims to influence a model by injecting ‘poisoned’ data into the training process, have attracted significant recent attention. In this work, we take a closer look at existing poisoning attacks and connect them with old and new algorithms for solving sequential Stackelberg games. By choosing an appropriate loss function for the attacker and optimizing with algorithms that exploit second-order information, we design poisoning attacks that are effective on neural networks. We present efficient implementations that exploit modern auto-differentiation packages and allow simultaneous and coordinated generation of tens of thousands of poisoned points, in contrast to existing methods that generate poisoned points one by one. We further perform extensive experiments that empirically explore the effect of data poisoning attacks on deep neural networks.

arxiv情報

著者 Yiwei Lu,Gautam Kamath,Yaoliang Yu
発行日 2024-02-15 16:57:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク