Breaking Boundaries: Balancing Performance and Robustness in Deep Wireless Traffic Forecasting

要約

精度と堅牢性の間のトレードオフのバランスを取ることは、時系列予測における長年の課題です。
既存の堅牢なアルゴリズムのほとんどは、クリーンなデータに対して一定の次善のパフォーマンスを達成していますが、データの摂動が存在する場合に同じパフォーマンス レベルを維持することは依然として非常に困難です。
この論文では、さまざまな摂動シナリオを研究し、実際の通信データを使用して敵対的攻撃に対する新しい防御メカニズムを提案します。
$\ell_{\infty}$-norm, $\in [0.1,0.4]$ を使用して定義された最大許容摂動の範囲の下で、2 つの既存の敵対的トレーニング アルゴリズムと戦略を比較します。
私たちの調査結果は、敵対的な例を検出する分類器、摂動されたデータ サンプルからノイズを除去するデノイザー、および標準の予測機能で構成されるハイブリッド戦略が、クリーンなデータと摂動されたデータの両方で最高のパフォーマンスを達成することを明らかにしました。
私たちの最適なモデルは、クリーン データに対する平均二乗誤差 (MSE) に関して元の予測モデルのパフォーマンスを最大 $92.02\%$ 維持することができ、同時に摂動データに対して敵対的にトレーニングされた標準モデルよりも堅牢です。
その MSE は、通常データと摂動データの比較方法よりもそれぞれ 2.71$\times$ と 2.51$\times$ 低くなります。
さらに、モデルのコンポーネントを並行してトレーニングできるため、計算効率が向上します。
私たちの結果は、高度で破壊的なポイズニング攻撃が存在する場合でも、分類器とノイズ除去器を改善することで、予測モデルのパフォーマンスと堅牢性の間のトレードオフのバランスを最適に取れることを示しています。

要約(オリジナル)

Balancing the trade-off between accuracy and robustness is a long-standing challenge in time series forecasting. While most of existing robust algorithms have achieved certain suboptimal performance on clean data, sustaining the same performance level in the presence of data perturbations remains extremely hard. In this paper, we study a wide array of perturbation scenarios and propose novel defense mechanisms against adversarial attacks using real-world telecom data. We compare our strategy against two existing adversarial training algorithms under a range of maximal allowed perturbations, defined using $\ell_{\infty}$-norm, $\in [0.1,0.4]$. Our findings reveal that our hybrid strategy, which is composed of a classifier to detect adversarial examples, a denoiser to eliminate noise from the perturbed data samples, and a standard forecaster, achieves the best performance on both clean and perturbed data. Our optimal model can retain up to $92.02\%$ the performance of the original forecasting model in terms of Mean Squared Error (MSE) on clean data, while being more robust than the standard adversarially trained models on perturbed data. Its MSE is 2.71$\times$ and 2.51$\times$ lower than those of comparing methods on normal and perturbed data, respectively. In addition, the components of our models can be trained in parallel, resulting in better computational efficiency. Our results indicate that we can optimally balance the trade-off between the performance and robustness of forecasting models by improving the classifier and denoiser, even in the presence of sophisticated and destructive poisoning attacks.

arxiv情報

著者 Romain Ilbert,Thai V. Hoang,Zonghua Zhang,Themis Palpanas
発行日 2023-11-17 10:21:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62M10, 68T01, 68T05, cs.AI, cs.CR, cs.LG, I.2.4 パーマリンク