Continual Adversarial Reinforcement Learning (CARL) of False Data Injection detection: forgetting and explainability

要約

再生可能エネルギー生産量の増加に関連して、スマート インバーターに対する誤ったデータ インジェクション攻撃 (FDIA) に対する懸念が高まっています。
データベースの FDIA 検出手法も積極的に開発されていますが、強化学習 (RL) を使用して作成できる、影響力がありステルスな敵対的な例に対して依然として脆弱であることが示されています。
私たちは、継続的敵対的 RL (CARL) アプローチを介して、そのような敵対的な例をデータベースの検出トレーニング手順に含めることを提案します。
このようにして、データベースの検出の欠陥を正確に特定できるため、段階的な改善の際に説明可能性が得られます。
我々は、継続的な学習の実装では壊滅的な忘却が起こりやすいことを示し、さらに、生成されたすべての FDIA シナリオに対して共同トレーニング戦略を採用することで忘却に対処できることを示します。

要約(オリジナル)

False data injection attacks (FDIAs) on smart inverters are a growing concern linked to increased renewable energy production. While data-based FDIA detection methods are also actively developed, we show that they remain vulnerable to impactful and stealthy adversarial examples that can be crafted using Reinforcement Learning (RL). We propose to include such adversarial examples in data-based detection training procedure via a continual adversarial RL (CARL) approach. This way, one can pinpoint the deficiencies of data-based detection, thereby offering explainability during their incremental improvement. We show that a continual learning implementation is subject to catastrophic forgetting, and additionally show that forgetting can be addressed by employing a joint training strategy on all generated FDIA scenarios.

arxiv情報

著者 Pooja Aslami,Kejun Chen,Timothy M. Hansen,Malik Hassanaly
発行日 2024-11-15 17:17:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク