Large Language Models can Deliver Accurate and Interpretable Time Series Anomaly Detection

要約

時系列異常検出 (TSAD) は、標準的な傾向から逸脱する非典型的なパターンを特定することで、システムの整合性を維持し、迅速な対応策を可能にすることで、さまざまな業界で重要な役割を果たしています。
従来の TSAD モデルは、深層学習に依存することが多く、広範なトレーニング データが必要であり、ブラック ボックスとして動作するため、検出された異常の解釈可能性が欠けています。
これらの課題に対処するために、私たちは、大規模言語モデル (LLM) を使用して正確で解釈可能な TSAD 結果を提供する新しい TSAD 手法である LLMAD を提案します。
LLMAD は、正と負の両方の類似時系列セグメントを取得することにより、コンテキスト内異常検出に LLM を革新的に適用し、LLM の有効性を大幅に高めます。
さらに、LLMAD は、異常検出思考連鎖 (AnoCoT) アプローチを採用して、意思決定プロセスに専門家のロジックを模倣しています。
この方法により、パフォーマンスがさらに向上し、LLMAD がユーザーの意思決定にとって特に重要な、多角的な観点から検出の説明を提供できるようになります。
3 つのデータセットに対する実験では、LLMAD が最先端の深層学習手法に匹敵する検出パフォーマンスを達成しながら、検出に関して優れた解釈可能性を提供していることが示されています。
私たちの知る限り、これは TSAD に LLM を直接採用した最初の作品です。

要約(オリジナル)

Time series anomaly detection (TSAD) plays a crucial role in various industries by identifying atypical patterns that deviate from standard trends, thereby maintaining system integrity and enabling prompt response measures. Traditional TSAD models, which often rely on deep learning, require extensive training data and operate as black boxes, lacking interpretability for detected anomalies. To address these challenges, we propose LLMAD, a novel TSAD method that employs Large Language Models (LLMs) to deliver accurate and interpretable TSAD results. LLMAD innovatively applies LLMs for in-context anomaly detection by retrieving both positive and negative similar time series segments, significantly enhancing LLMs’ effectiveness. Furthermore, LLMAD employs the Anomaly Detection Chain-of-Thought (AnoCoT) approach to mimic expert logic for its decision-making process. This method further enhances its performance and enables LLMAD to provide explanations for their detections through versatile perspectives, which are particularly important for user decision-making. Experiments on three datasets indicate that our LLMAD achieves detection performance comparable to state-of-the-art deep learning methods while offering remarkable interpretability for detections. To the best of our knowledge, this is the first work that directly employs LLMs for TSAD.

arxiv情報

著者 Jun Liu,Chaoyun Zhang,Jiaxu Qian,Minghua Ma,Si Qin,Chetan Bansal,Qingwei Lin,Saravan Rajmohan,Dongmei Zhang
発行日 2024-05-24 09:07:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク