Mitigating Data Injection Attacks on Federated Learning

要約

連合学習は、データのプライバシーを損なうことなく、複数のエンティティがそれぞれのデータを使って共同でモデルを学習することを可能にする技術である。しかし、その利点とは裏腹に、連合学習は偽データ注入攻撃の影響を受けやすい。このようなシナリオでは、ネットワーク内の特定のエージェントを制御する悪意のあるエンティティが、学習プロセスを操作し、最適でないモデルを導くことができる。従って、このようなデータインジェクション攻撃に対処することは、連携学習システムにおける重要な研究課題である。本論文では、連合学習システムにおけるデータインジェクション攻撃を検出し、緩和するための新しい技術を提案する。我々の緩和手法は局所的なスキームであり、調整ノードによる単一の学習インスタンス中に実行され、アルゴリズムの収束中に緩和を可能にする。あるエージェントが攻撃者であると疑われた場合、そのデータは一定期間無視されるが、この判断はしばしば再評価される。我々は、真実なエージェントが多数存在する限り、有限時間後に、全ての攻撃者は確率1で無視される一方で、信頼できるエージェントを無視する確率は0になることを証明する。シミュレーションにより、調整ノードが全ての攻撃者を検出し隔離した場合、モデルは回復し、真実モデルに収束することを示す。

要約(オリジナル)

Federated learning is a technique that allows multiple entities to collaboratively train models using their data without compromising data privacy. However, despite its advantages, federated learning can be susceptible to false data injection attacks. In these scenarios, a malicious entity with control over specific agents in the network can manipulate the learning process, leading to a suboptimal model. Consequently, addressing these data injection attacks presents a significant research challenge in federated learning systems. In this paper, we propose a novel technique to detect and mitigate data injection attacks on federated learning systems. Our mitigation method is a local scheme, performed during a single instance of training by the coordinating node, allowing the mitigation during the convergence of the algorithm. Whenever an agent is suspected to be an attacker, its data will be ignored for a certain period, this decision will often be re-evaluated. We prove that with probability 1, after a finite time, all attackers will be ignored while the probability of ignoring a trustful agent becomes 0, provided that there is a majority of truthful agents. Simulations show that when the coordinating node detects and isolates all the attackers, the model recovers and converges to the truthful model.

arxiv情報

著者 Or Shalom,Amir Leshem,Waheed U. Bajwa
発行日 2023-12-04 18:26:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.LG, eess.SP パーマリンク