要約
分散協調学習(DFL)は、単一障害点(single point of failure)の限界に対処し、協調モデルを訓練する革新的なパラダイムとして登場した。しかし、FLとDFLのセキュリティと信頼性は、ポイズニング攻撃によって損なわれ、パフォーマンスに悪影響を与える。既存の防御メカニズムは集中型FL向けに設計されており、DFLの特殊性を十分に利用していない。そこで本研究では、DFLにおけるポイズニング攻撃に対抗する防御戦略であるSentinelを導入する。Sentinelは、ローカルデータのアクセス性を活用し、悪意のあるモデル更新から保護するために、類似性フィルタリング、ブートストラップ検証、正規化からなる3段階の集約プロトコルを定義する。Sentinelは多様なデータセットとデータ分布で評価されている。さらに、様々なポイズニング攻撃のタイプと脅威レベルが検証された。その結果、データがIID(Independent and Identically Distributed)構成に従う場合、非標的ポイズニング攻撃と標的型ポイズニング攻撃の両方に対する最先端の性能が向上した。また、非IID構成の下では、Sentinelと他の最新鋭のロバスト集約手法の両方で、性能がどのように低下するかを分析した。
要約(オリジナル)
Decentralized Federated Learning (DFL) emerges as an innovative paradigm to train collaborative models, addressing the single point of failure limitation. However, the security and trustworthiness of FL and DFL are compromised by poisoning attacks, negatively impacting its performance. Existing defense mechanisms have been designed for centralized FL and they do not adequately exploit the particularities of DFL. Thus, this work introduces Sentinel, a defense strategy to counteract poisoning attacks in DFL. Sentinel leverages the accessibility of local data and defines a three-step aggregation protocol consisting of similarity filtering, bootstrap validation, and normalization to safeguard against malicious model updates. Sentinel has been evaluated with diverse datasets and data distributions. Besides, various poisoning attack types and threat levels have been verified. The results improve the state-of-the-art performance against both untargeted and targeted poisoning attacks when data follows an IID (Independent and Identically Distributed) configuration. Besides, under non-IID configuration, it is analyzed how performance degrades both for Sentinel and other state-of-the-art robust aggregation methods.
arxiv情報
著者 | Chao Feng,Alberto Huertas Celdran,Janosch Baltensperger,Enrique Tomas Martinez Beltran,Gerome Bovet,Burkhard Stiller |
発行日 | 2024-09-03 09:28:49+00:00 |
arxivサイト | arxiv_id(pdf) |