Sentinel: An Aggregation Function to Secure Decentralized Federated Learning

要約

分散型フェデレーテッド ラーニング (DFL) は、単一障害点の制限に対処し、協調モデルをトレーニングするための革新的なパラダイムとして登場します。
ただし、FL と DFL のセキュリティと信頼性はポイズニング攻撃によって損なわれ、パフォーマンスに悪影響を及ぼします。
既存の防御メカニズムは集中型 FL 向けに設計されており、DFL の特性を適切に活用していません。
したがって、この作品では、DFL での中毒攻撃に対抗するための防御戦略である Sentinel が導入されています。
Sentinel は、ローカル データのアクセス可能性を活用し、類似性フィルタリング、ブートストラップ検証、正規化から構成される 3 段階の集約プロトコルを定義して、悪意のあるモデルの更新を防ぎます。
Sentinel は、さまざまなデータセットとデータ分布を使用して評価されています。
さらに、さまざまなポイズニング攻撃の種類と脅威レベルが検証されています。
その結果、データが IID (Independent and Identively Distributed) 構成に従っている場合、非標的型ポイズニング攻撃と標的型ポイズニング攻撃の両方に対する最先端のパフォーマンスが向上します。
さらに、非 IID 構成では、Sentinel とその他の最先端の堅牢な集約手法の両方でパフォーマンスがどのように低下​​するかが分析されます。

要約(オリジナル)

Decentralized Federated Learning (DFL) emerges as an innovative paradigm to train collaborative models, addressing the single point of failure limitation. However, the security and trustworthiness of FL and DFL are compromised by poisoning attacks, negatively impacting its performance. Existing defense mechanisms have been designed for centralized FL and they do not adequately exploit the particularities of DFL. Thus, this work introduces Sentinel, a defense strategy to counteract poisoning attacks in DFL. Sentinel leverages the accessibility of local data and defines a three-step aggregation protocol consisting of similarity filtering, bootstrap validation, and normalization to safeguard against malicious model updates. Sentinel has been evaluated with diverse datasets and data distributions. Besides, various poisoning attack types and threat levels have been verified. The results improve the state-of-the-art performance against both untargeted and targeted poisoning attacks when data follows an IID (Independent and Identically Distributed) configuration. Besides, under non-IID configuration, it is analyzed how performance degrades both for Sentinel and other state-of-the-art robust aggregation methods.

arxiv情報

著者 Chao Feng,Alberto Huertas Celdrán,Janosch Baltensperger,Enrique Tomás Martínez Beltrán,Pedro Miguel Sánchez Sánchez,Gérôme Bovet,Burkhard Stiller
発行日 2024-09-04 08:27:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC パーマリンク