要約
Federated Learning(FL)は、分散型の実装機能のおかげで、ワイヤレスネットワークでの学習ベースの機能の有望な手法です。
一方、分散学習は、ローカルモデルへの攻撃がパラメーター交換によって他のモデルに広がる可能性がある悪意のある攻撃への暴露のリスクを高める可能性があります。
一方、このような攻撃は、動的なワイヤレス環境のために検出するのが難しい場合があります。特に、ローカルモデルは非独立性で同一に分布した(非IID)データで不均一である可能性があることを考慮してください。
したがって、悪意のある攻撃の効果を評価し、FL対応のワイヤレスネットワークの高度な防御技術を開発することが重要です。
この作業では、ネットワークのエネルギー効率を高めるフェデレートディープ強化学習ベースの細胞睡眠制御シナリオを紹介します。
学習ベースのアプローチを対象とした複数のインテリジェントな攻撃を提案し、そのような攻撃を緩和するための防御方法を提案します。
特に、2つの攻撃モデル、Generative Anversarial Network(GAN)強化モデル中毒攻撃と正規化ベースのモデル中毒攻撃を設計しました。
対抗として、2つの防御スキーム、自動エンコーダーベースの防御、および知識蒸留(KD)対応防御を提案しました。
自動エンコーダーベースの防御方法は、自動エンコーダーを活用して悪意のある参加者を識別し、グローバルな集約中に良性ローカルモデルのパラメーターのみを集計しますが、KDベースの防御は、グローバルモデルとローカルモデル間で転送される知識を制御することにより攻撃からモデルを保護します。
要約(オリジナル)
Federated learning (FL) is a promising technique for learning-based functions in wireless networks, thanks to its distributed implementation capability. On the other hand, distributed learning may increase the risk of exposure to malicious attacks where attacks on a local model may spread to other models by parameter exchange. Meanwhile, such attacks can be hard to detect due to the dynamic wireless environment, especially considering local models can be heterogeneous with non-independent and identically distributed (non-IID) data. Therefore, it is critical to evaluate the effect of malicious attacks and develop advanced defense techniques for FL-enabled wireless networks. In this work, we introduce a federated deep reinforcement learning-based cell sleep control scenario that enhances the energy efficiency of the network. We propose multiple intelligent attacks targeting the learning-based approach and we propose defense methods to mitigate such attacks. In particular, we have designed two attack models, generative adversarial network (GAN)-enhanced model poisoning attack and regularization-based model poisoning attack. As a counteraction, we have proposed two defense schemes, autoencoder-based defense, and knowledge distillation (KD)-enabled defense. The autoencoder-based defense method leverages an autoencoder to identify the malicious participants and only aggregate the parameters of benign local models during the global aggregation, while KD-based defense protects the model from attacks by controlling the knowledge transferred between the global model and local models.
arxiv情報
著者 | Han Zhang,Hao Zhou,Medhat Elsayed,Majid Bavand,Raimundas Gaigalas,Yigit Ozcan,Melike Erol-Kantarci |
発行日 | 2025-04-25 17:40:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google