Robust Multivariate Time-Series Forecasting: Adversarial Attacks and Defense Mechanisms

要約

本研究では、多変量確率予測モデルに対する敵対的攻撃の脅威と、実行可能な防御メカニズムを研究する。我々の研究は、少数の他の時系列の過去の観測値に戦略的で疎な(知覚できない)修正を加えることによって、ターゲット時系列の予測に悪影響を及ぼす新しい攻撃パターンを発見した。このような攻撃の影響を軽減するために、我々は2つの防御戦略を開発した。第一に、以前に開発した分類におけるランダムスムージング技術を多変量予測シナリオに拡張する。第二に、我々は、敵対的な例を作成することを学習し、同時に、そのような敵対的なシミュレーションに対する頑健性を向上させるために予測モデルを最適化する敵対的訓練アルゴリズムを開発する。実世界のデータセットを用いた広範な実験により、我々の攻撃スキームが強力であり、我々の防御アルゴリズムがベースラインの防御機構と比較してより効果的であることを確認する。

要約(オリジナル)

This work studies the threats of adversarial attack on multivariate probabilistic forecasting models and viable defense mechanisms. Our studies discover a new attack pattern that negatively impact the forecasting of a target time series via making strategic, sparse (imperceptible) modifications to the past observations of a small number of other time series. To mitigate the impact of such attack, we have developed two defense strategies. First, we extend a previously developed randomized smoothing technique in classification to multivariate forecasting scenarios. Second, we develop an adversarial training algorithm that learns to create adversarial examples and at the same time optimizes the forecasting model to improve its robustness against such adversarial simulation. Extensive experiments on real-world datasets confirm that our attack schemes are powerful and our defense algorithms are more effective compared with baseline defense mechanisms.

arxiv情報

著者 Linbo Liu,Youngsuk Park,Trong Nghia Hoang,Hilaf Hasson,Jun Huan
発行日 2023-03-06 18:18:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.LG パーマリンク