Robust Multivariate Time-Series Forecasting: Adversarial Attacks and Defense Mechanisms

要約

タイトル:強力な多変量時系列予測:敵対的攻撃と防御メカニズム

要約:
– 著者らは、多変量確率予測モデルへの敵対的攻撃の脅威と、その攻撃からの防御機構を研究している。
– 研究により、他の小数の時系列観測データに対して戦略的かつ希薄(感知できない)な修正を加えることで、ターゲットの時系列予測に悪影響を与える新しい攻撃パターンが明らかになった。
– そのような攻撃の影響を緩和するために、二つの防御戦略を開発した。
– まず、分類におけるランダム化平滑化技術を多変量予測シナリオに拡張した。
– 次に、敵対的学習アルゴリズムを開発し、敵対的な例を作成しながら、予測モデルを最適化して敵対的なシミュレーションに対する堅牢性を向上させる。
– 実世界のデータセットに対する実験により、攻撃パターンが強力であり、防御アルゴリズムがベースラインの防御機構と比較してより効果的であることが確認された。

要約(オリジナル)

This work studies the threats of adversarial attack on multivariate probabilistic forecasting models and viable defense mechanisms. Our studies discover a new attack pattern that negatively impact the forecasting of a target time series via making strategic, sparse (imperceptible) modifications to the past observations of a small number of other time series. To mitigate the impact of such attack, we have developed two defense strategies. First, we extend a previously developed randomized smoothing technique in classification to multivariate forecasting scenarios. Second, we develop an adversarial training algorithm that learns to create adversarial examples and at the same time optimizes the forecasting model to improve its robustness against such adversarial simulation. Extensive experiments on real-world datasets confirm that our attack schemes are powerful and our defense algorithms are more effective compared with baseline defense mechanisms.

arxiv情報

著者 Linbo Liu,Youngsuk Park,Trong Nghia Hoang,Hilaf Hasson,Jun Huan
発行日 2023-04-14 04:15:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.LG パーマリンク