Securing NextG Systems against Poisoning Attacks on Federated Learning: A Game-Theoretic Solution

要約

この論文では、フェデレーテッド ラーニング (FL) システムにおけるポイズニング攻撃と防御の相互作用、特に次世代 (NextG) 通信の深層学習を使用した無線信号分類のコンテキストを研究します。
FL は、クライアントがデータ サンプルを交換することなく、グローバル モデルを共同でトレーニングします。
地理的に分散したクライアントを活用することで、トレーニングされたグローバル モデルを既存のユーザーの識別に使用でき、スペクトルの共有が容易になります。
ただし、この分散学習システムでは、悪意のあるクライアントの存在により、トレーニング データが汚染され、偽のローカル モデル交換を通じてグローバル モデルが操作されるリスクが生じます。
この課題に対処するために、このホワイト ペーパーでは、FL システムに参加するクライアントの許可または拒否に関して十分な情報に基づいた意思決定を行うためのプロアクティブな防御メカニズムが採用されています。
その結果、攻撃と防御の相互作用は、根底にある許可と中毒の決定を中心に、ゲームとしてモデル化されます。
まず、攻撃者と防御者の最善の戦略と最悪の戦略を網羅するパフォーマンスの限界が確立されます。
その後、攻撃ユーティリティと防御ユーティリティはナッシュ均衡内で特徴付けられ、他のプレイヤーの固定戦略を考慮すると、どのプレイヤーも一方的にパフォーマンスを向上させることができません。
この結果は、NextG 通信のコンテキストにおける攻撃と防御の両方のパフォーマンスを定量化することで、ポイズニング攻撃から FL システムを保護する新しい運用モードに関する洞察を提供します。

要約(オリジナル)

This paper studies the poisoning attack and defense interactions in a federated learning (FL) system, specifically in the context of wireless signal classification using deep learning for next-generation (NextG) communications. FL collectively trains a global model without the need for clients to exchange their data samples. By leveraging geographically dispersed clients, the trained global model can be used for incumbent user identification, facilitating spectrum sharing. However, in this distributed learning system, the presence of malicious clients introduces the risk of poisoning the training data to manipulate the global model through falsified local model exchanges. To address this challenge, a proactive defense mechanism is employed in this paper to make informed decisions regarding the admission or rejection of clients participating in FL systems. Consequently, the attack-defense interactions are modeled as a game, centered around the underlying admission and poisoning decisions. First, performance bounds are established, encompassing the best and worst strategies for attackers and defenders. Subsequently, the attack and defense utilities are characterized within the Nash equilibrium, where no player can unilaterally improve its performance given the fixed strategies of others. The results offer insights into novel operational modes that safeguard FL systems against poisoning attacks by quantifying the performance of both attacks and defenses in the context of NextG communications.

arxiv情報

著者 Yalin E. Sagduyu,Tugba Erpek,Yi Shi
発行日 2023-12-28 17:52:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.DC, cs.LG, cs.NI パーマリンク