An Adversarial Approach to Evaluating the Robustness of Event Identification Models

要約

インテリジェントな機械学習アプローチは、リアルタイムの状況認識を可能にするイベントの検出と識別に積極的に使用されています。
しかし、このような機械学習アルゴリズムは、受信するテレメトリ データに対する敵対的な攻撃の影響を受けやすいことがわかっています。
この論文では、イベント分類のための特徴を抽出するための物理ベースのモーダル分解方法を検討し、負荷損失と発電損失という 2 つのタイプのイベントを区別するためのロジスティック回帰と勾配ブースティングを含む解釈可能な分類子に焦点を当てます。
結果として得られた分類器は、敵対的アルゴリズムに対してテストされ、その堅牢性が評価されます。
敵対的攻撃は 2 つの設定でテストされます。ホワイト ボックス設定では、攻撃者は分類モデルを正確に知っています。
もう 1 つは灰色のボックスの設定で、攻撃者は分類器のトレーニングに使用されたのと同じネットワークから履歴データにアクセスできますが、分類モデルは知りません。
合成サウスカロライナ 500 バス システムでの徹底的な実験により、ロジスティック回帰などの比較的単純なモデルが勾配ブースティングよりも敵対的な攻撃を受けやすいことが明らかになりました。

要約(オリジナル)

Intelligent machine learning approaches are finding active use for event detection and identification that allow real-time situational awareness. Yet, such machine learning algorithms have been shown to be susceptible to adversarial attacks on the incoming telemetry data. This paper considers a physics-based modal decomposition method to extract features for event classification and focuses on interpretable classifiers including logistic regression and gradient boosting to distinguish two types of events: load loss and generation loss. The resulting classifiers are then tested against an adversarial algorithm to evaluate their robustness. The adversarial attack is tested in two settings: the white box setting, wherein the attacker knows exactly the classification model; and the gray box setting, wherein the attacker has access to historical data from the same network as was used to train the classifier, but does not know the classification model. Thorough experiments on the synthetic South Carolina 500-bus system highlight that a relatively simpler model such as logistic regression is more susceptible to adversarial attacks than gradient boosting.

arxiv情報

著者 Obai Bahwal,Oliver Kosut,Lalitha Sankar
発行日 2024-04-22 17:56:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, cs.SY, eess.SY パーマリンク