Adversarial Attacks and Defenses in Automated Control Systems: A Comprehensive Benchmark

要約

機械学習を自動制御システム (ACS) に統合することで、産業プロセス管理における意思決定が強化されます。
これらのテクノロジーを業界で広く採用する場合の制限の 1 つは、敵対的な攻撃に対するニューラル ネットワークの脆弱性です。
この研究では、Tennessee Eastman Process データセットを使用して、ACS で障害診断用のディープ ラーニング モデルを導入する際の脅威を調査します。
アーキテクチャの異なる 3 つのニューラル ネットワークを評価することで、6 種類の敵対的攻撃にさらし、5 つの異なる防御方法を調査しました。
私たちの結果は、敵対的なサンプルに対するモデルの強い脆弱性と、防御戦略の効果のばらつきを浮き彫りにしています。
また、複数の防御方法を組み合わせた新たな防御アプローチを提案し、その有効性を実証します。
この研究は、ACS 内の機械学習を保護し、産業プロセスにおける堅牢な障害診断を保証するためのいくつかの洞察に貢献します。

要約(オリジナル)

Integrating machine learning into Automated Control Systems (ACS) enhances decision-making in industrial process management. One of the limitations to the widespread adoption of these technologies in industry is the vulnerability of neural networks to adversarial attacks. This study explores the threats in deploying deep learning models for fault diagnosis in ACS using the Tennessee Eastman Process dataset. By evaluating three neural networks with different architectures, we subject them to six types of adversarial attacks and explore five different defense methods. Our results highlight the strong vulnerability of models to adversarial samples and the varying effectiveness of defense strategies. We also propose a novel protection approach by combining multiple defense methods and demonstrate it’s efficacy. This research contributes several insights into securing machine learning within ACS, ensuring robust fault diagnosis in industrial processes.

arxiv情報

著者 Vitaliy Pozdnyakov,Aleksandr Kovalenko,Ilya Makarov,Mikhail Drobyshevskiy,Kirill Lukyanov
発行日 2024-05-21 14:15:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, cs.SY, eess.SY, I.2.1 パーマリンク