Backdoor Attacks in Peer-to-Peer Federated Learning

要約

ほとんどの機械学習アプリケーションは集中学習プロセスに依存しているため、トレーニング データセットが漏洩するリスクが生じます。
フェデレーテッド ラーニング (FL) はこれらのプライバシー リスクをある程度軽減しますが、共有グローバル モデルのトレーニングには信頼できる集約サーバーに依存します。
最近、ピアツーピアフェデレーテッド ラーニング (P2PFL) に基づく新しい分散学習アーキテクチャは、プライバシーと信頼性の両方の点で利点を提供します。
それでも、訓練中の毒攻撃に対する彼らの回復力は調査されていません。
この論文では、構造グラフのプロパティを利用して悪意のあるノードを選択し、ステルス性を維持しながら高い攻撃成功率を達成する、P2PFL 用の新しいバックドア攻撃を提案します。
私たちは、複数のグラフ トポロジ、敵対的なネットワークの限られた可視性、非 IID データを持つクライアントなど、さまざまな現実的な条件下で攻撃を評価します。
最後に、FL から適応した既存の防御の限界を示し、モデルの精度に影響を与えることなくバックドア攻撃を軽減する新しい防御を設計します。

要約(オリジナル)

Most machine learning applications rely on centralized learning processes, opening up the risk of exposure of their training datasets. While federated learning (FL) mitigates to some extent these privacy risks, it relies on a trusted aggregation server for training a shared global model. Recently, new distributed learning architectures based on Peer-to-Peer Federated Learning (P2PFL) offer advantages in terms of both privacy and reliability. Still, their resilience to poisoning attacks during training has not been investigated. In this paper, we propose new backdoor attacks for P2PFL that leverage structural graph properties to select the malicious nodes, and achieve high attack success, while remaining stealthy. We evaluate our attacks under various realistic conditions, including multiple graph topologies, limited adversarial visibility of the network, and clients with non-IID data. Finally, we show the limitations of existing defenses adapted from FL and design a new defense that successfully mitigates the backdoor attacks, without an impact on model accuracy.

arxiv情報

著者 Georgios Syros,Gokberk Yar,Simona Boboila,Cristina Nita-Rotaru,Alina Oprea
発行日 2024-09-17 14:47:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク