要約
大規模な言語モデル(LLM)は最近、時系列予測の分野で重要な可能性を実証しており、複雑な時間データを処理する際に印象的な機能を提供しています。
ただし、実際のアプリケーションにおける堅牢性と信頼性は、特に敵対的な攻撃に対する感受性に関して、依存していないままです。
この論文では、LLMベースの時系列予測のターゲットを絞った敵対攻撃フレームワークを紹介します。
グラジエントフリーとブラックボックスの両方の最適化方法を採用することにより、複数のデータセットとLLMアーキテクチャにわたって予測精度を大幅に分解する最小限の非常に効果的な摂動を生成します。
GPT-3.5、GPT-4、LLAMA、およびMistralを使用したTimeGPTやLLM-Timeなどのモデルを含む実験は、敵対的な攻撃がランダムノイズよりもはるかに深刻なパフォーマンス低下につながり、攻撃の幅広い効果の幅広い効果を示していることを示しています。
異なるLLMS。
結果は、時系列予測におけるLLMの重要な脆弱性を強調し、実際のアプリケーションでの信頼できる展開を確保するための堅牢な防御メカニズムの必要性を強調しています。
要約(オリジナル)
Large Language Models (LLMs) have recently demonstrated significant potential in the field of time series forecasting, offering impressive capabilities in handling complex temporal data. However, their robustness and reliability in real-world applications remain under-explored, particularly concerning their susceptibility to adversarial attacks. In this paper, we introduce a targeted adversarial attack framework for LLM-based time series forecasting. By employing both gradient-free and black-box optimization methods, we generate minimal yet highly effective perturbations that significantly degrade the forecasting accuracy across multiple datasets and LLM architectures. Our experiments, which include models like TimeGPT and LLM-Time with GPT-3.5, GPT-4, LLaMa, and Mistral, show that adversarial attacks lead to much more severe performance degradation than random noise, and demonstrate the broad effectiveness of our attacks across different LLMs. The results underscore the critical vulnerabilities of LLMs in time series forecasting, highlighting the need for robust defense mechanisms to ensure their reliable deployment in practical applications.
arxiv情報
著者 | Fuqiang Liu,Sicong Jiang,Luis Miranda-Moreno,Seongjin Choi,Lijun Sun |
発行日 | 2025-01-28 17:33:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google