要約
フェデレーテッド ラーニング (FL) システムにおけるモデル ポイズニング攻撃に対する現在の防御メカニズムは、悪意のあるクライアントの一定のしきい値までは有効であることが証明されています。
この研究では、大規模なモデルポイズニング攻撃、つまり悪意のあるクライアントが正規の参加者をはるかに上回る攻撃に対して耐性のある FL 用の新しい事前集約フィルターである FLANDERS を紹介します。
FLANDERS は、各 FL ラウンドでクライアントによって送信されたローカル モデルのシーケンスを行列値の時系列として扱います。
次に、実際の観測値とサーバーが維持するマトリックス自己回帰予測モデルによって生成された推定値を比較することにより、悪意のあるクライアントの更新をこの時系列の外れ値として特定します。
いくつかの非 iid FL セットアップで実施された実験では、FLANDERS が標準的で堅牢な既存の集約方法と組み合わせると、幅広い攻撃にわたる堅牢性が大幅に向上することが示されています。
要約(オリジナル)
Current defense mechanisms against model poisoning attacks in federated learning (FL) systems have proven effective up to a certain threshold of malicious clients. In this work, we introduce FLANDERS, a novel pre-aggregation filter for FL resilient to large-scale model poisoning attacks, i.e., when malicious clients far exceed legitimate participants. FLANDERS treats the sequence of local models sent by clients in each FL round as a matrix-valued time series. Then, it identifies malicious client updates as outliers in this time series by comparing actual observations with estimates generated by a matrix autoregressive forecasting model maintained by the server. Experiments conducted in several non-iid FL setups show that FLANDERS significantly improves robustness across a wide spectrum of attacks when paired with standard and robust existing aggregation methods.
arxiv情報
著者 | Edoardo Gabrielli,Dimitri Belli,Zoe Matrullo,Vittorio Miori,Gabriele Tolomei |
発行日 | 2024-12-02 12:01:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google