DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning

要約

タイトル: DABS:フェデレーテッドラーニングにおけるサーバーにおけるデータ非依存型バックドア攻撃

要約:

– フェデレーテッドラーニング(FL)は、分散デバイスからのローカルモデルを集約し、中央サーバーの調整下でグローバルモデルをトレーニングしようとする。
– しかし、大量の異種デバイスの存在が、FLを特に潜在的なバックドア攻撃にさらすことになる。
– バックドア攻撃は、特定のトリガーを注入してニューラルネットワークをあるターゲットラベルの分類エラーを引き起こすことを目的とする。
– これまでの研究では、クライクント側攻撃にフォーカスし、ローカルデータセットの修正によりグローバルモデルを汚染する。
– 今回、私たちは新しいFLの攻撃モデル、すなわち、サーバーにおけるデータ非依存型バックドア攻撃(DABS)を提案する。
– 詳細なシミュレーション結果により、DABSは、ベースライン手法よりも攻撃成功率を高めながら、クリーンなデータに対して正常な精度を維持していることが示される。

要約(オリジナル)

Federated learning (FL) attempts to train a global model by aggregating local models from distributed devices under the coordination of a central server. However, the existence of a large number of heterogeneous devices makes FL vulnerable to various attacks, especially the stealthy backdoor attack. Backdoor attack aims to trick a neural network to misclassify data to a target label by injecting specific triggers while keeping correct predictions on original training data. Existing works focus on client-side attacks which try to poison the global model by modifying the local datasets. In this work, we propose a new attack model for FL, namely Data-Agnostic Backdoor attack at the Server (DABS), where the server directly modifies the global model to backdoor an FL system. Extensive simulation results show that this attack scheme achieves a higher attack success rate compared with baseline methods while maintaining normal accuracy on the clean data.

arxiv情報

著者 Wenqiang Sun,Sen Li,Yuchang Sun,Jun Zhang
発行日 2023-05-02 09:04:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク