RobustPdM: Designing Robust Predictive Maintenance against Adversarial Attacks

要約

最先端の予知保全 (PdM) 技術は、モノのインターネット (IoT) とディープラーニング (DL) の広範な利用を通じて全体の生産性を向上させながら、複雑なマシンのメンテナンスコストとダウンタイムを削減することに大きな成功を収めています。
残念ながら、IoT センサーと DL アルゴリズムはどちらもサイバー攻撃を受けやすいです。
たとえば、DL アルゴリズムは敵対的な例に対して脆弱であることが知られています。
このような敵対的攻撃は、PdM ドメインではほとんど調査されていません。
これは、分類タスクのコンピューター ビジョン ドメインにおける敵対的攻撃を、多変量時系列 (MTS) 回帰タスクの PdM ドメインに直接適用できないためです。
この研究では、さまざまな種類の敵対的攻撃の影響を広範囲に分析し、DL 対応 PdM モデル用の新しい敵対的防御手法を提案することにより、敵対的に堅牢な PdM システムを設計するためのエンドツーエンドの方法論を提案します。
まず、新しい MTS 投影勾配降下法 (PGD) およびランダム再起動を伴う MTS PGD (PGD_r) 攻撃を提案します。
次に、MTS 高速勾配符号法 (FGSM) および MTS 基本反復法 (BIM) とともに、MTS PGD および PGD_r が長短期記憶 (LSTM)、ゲート型リカレント ユニット (GRU)、畳み込みニューラル ネットワークに及ぼす影響を評価します (
CNN)、および双方向 LSTM ベースの PdM システム。
NASA のターボファン エンジン データセットを使用した結果は、敵対的攻撃が RUL 予測に重大な欠陥 (最大 11 倍) を引き起こす可能性があり、最先端の PdM 攻撃の有効性を 3 倍上回る可能性があることを示しています。
さらに、敵対的攻撃を防御するための新しい近似的敵対的トレーニング方法を紹介します。
近似的な敵対的トレーニングにより、PdM モデルの堅牢性が大幅に向上し (最大 54 倍)、3 倍の堅牢性を提供することで最先端の PdM 防御手法を上回るパフォーマンスが得られることがわかりました。

要約(オリジナル)

The state-of-the-art predictive maintenance (PdM) techniques have shown great success in reducing maintenance costs and downtime of complicated machines while increasing overall productivity through extensive utilization of Internet-of-Things (IoT) and Deep Learning (DL). Unfortunately, IoT sensors and DL algorithms are both prone to cyber-attacks. For instance, DL algorithms are known for their susceptibility to adversarial examples. Such adversarial attacks are vastly under-explored in the PdM domain. This is because the adversarial attacks in the computer vision domain for classification tasks cannot be directly applied to the PdM domain for multivariate time series (MTS) regression tasks. In this work, we propose an end-to-end methodology to design adversarially robust PdM systems by extensively analyzing the effect of different types of adversarial attacks and proposing a novel adversarial defense technique for DL-enabled PdM models. First, we propose novel MTS Projected Gradient Descent (PGD) and MTS PGD with random restarts (PGD_r) attacks. Then, we evaluate the impact of MTS PGD and PGD_r along with MTS Fast Gradient Sign Method (FGSM) and MTS Basic Iterative Method (BIM) on Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN), and Bi-directional LSTM based PdM system. Our results using NASA’s turbofan engine dataset show that adversarial attacks can cause a severe defect (up to 11X) in the RUL prediction, outperforming the effectiveness of the state-of-the-art PdM attacks by 3X. Furthermore, we present a novel approximate adversarial training method to defend against adversarial attacks. We observe that approximate adversarial training can significantly improve the robustness of PdM models (up to 54X) and outperforms the state-of-the-art PdM defense methods by offering 3X more robustness.

arxiv情報

著者 Ayesha Siddique,Ripan Kumar Kundu,Gautam Raj Mode,Khaza Anuarul Hoque
発行日 2023-08-10 17:34:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク