Federated Learning for Anomaly Detection in Energy Consumption Data: Assessing the Vulnerability to Adversarial Attacks

要約

エネルギーセクターでは、機器の障害、エネルギー盗難、またはその他の問題を示す不規則なパターンを特定するために、異常検出が重要です。
異常検出のための機械学習手法は大きな成功を収めていますが、通常は集中化されており、プライバシーとセキュリティの懸念を引き起こす中央サーバーとローカルデータを共有することが含まれます。
Federated Learning(FL)は、ローカルデータを共有せずに分散学習を可能にするため、人気を集めています。
ただし、FLはニューラルネットワークに依存しています。ニューラルネットワークは、データを操作する敵対的な攻撃に対して脆弱であり、モデルをリードして誤った予測を行います。
画像ドメインでは敵対的な攻撃が調査されていますが、特にエネルギードメインでは、時系列の問題ではほとんど説明されていません。
さらに、FL設定における敵対的な攻撃の影響もほとんど不明です。
このペーパーでは、エネルギーデータにおけるFLベースの異常検出の敵対的攻撃に対する脆弱性を評価します。
具体的には、2つの最先端のモデル、長期記憶(LSTM)と変圧器を使用して、FL設定で異常を検出し、2つのホワイトボックス攻撃方法、高速勾配標識メソッド(FGSM)と投影勾配
降下(PGD)は、データを摂動するために使用されます。
結果は、FLがFGSM攻撃よりもPGD攻撃に対してより敏感であり、PGDの反復的性質に起因していることを示しており、その結果、素朴で弱い攻撃があっても精度が10%以上低下します。
さらに、FLは集中学習よりもこれらの攻撃の影響を受け、FLの防衛メカニズムの必要性を強調しています。

要約(オリジナル)

Anomaly detection is crucial in the energy sector to identify irregular patterns indicating equipment failures, energy theft, or other issues. Machine learning techniques for anomaly detection have achieved great success, but are typically centralized, involving sharing local data with a central server which raises privacy and security concerns. Federated Learning (FL) has been gaining popularity as it enables distributed learning without sharing local data. However, FL depends on neural networks, which are vulnerable to adversarial attacks that manipulate data, leading models to make erroneous predictions. While adversarial attacks have been explored in the image domain, they remain largely unexplored in time series problems, especially in the energy domain. Moreover, the effect of adversarial attacks in the FL setting is also mostly unknown. This paper assesses the vulnerability of FL-based anomaly detection in energy data to adversarial attacks. Specifically, two state-of-the-art models, Long Short Term Memory (LSTM) and Transformers, are used to detect anomalies in an FL setting, and two white-box attack methods, Fast Gradient Sign Method (FGSM) and Projected Gradient Descent (PGD), are employed to perturb the data. The results show that FL is more sensitive to PGD attacks than to FGSM attacks, attributed to PGD’s iterative nature, resulting in an accuracy drop of over 10% even with naive, weaker attacks. Moreover, FL is more affected by these attacks than centralized learning, highlighting the need for defense mechanisms in FL.

arxiv情報

著者 Yohannis Kifle Telila,Damitha Senevirathne,Dumindu Tissera,Apurva Narayan,Miriam A. M. Capretz,Katarina Grolinger
発行日 2025-02-07 16:08:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68, cs.AI, cs.DC, cs.LG, I.2 パーマリンク