要約
多変量時系列予測 (MTSF) は、変数間の時間的ダイナミクスを学習して将来の時系列を予測することを目的としています。
既存の統計的および深層学習ベースの手法は、学習可能なパラメーターと小規模なトレーニング データが限られているという問題があります。
最近、時系列とテキスト プロンプトを組み合わせた大規模言語モデル (LLM) が、MTSF で有望なパフォーマンスを達成しました。
しかし、現在の LLM ベースのソリューションでは、もつれの解けた埋め込みを学習するには不十分であることがわかりました。
クロスモダリティ調整による MTSF の直感的かつ効果的なフレームワークである TimeCMA を紹介します。
具体的には、2 つのブランチを持つデュアル モダリティ エンコーディングを提示します。時系列エンコーディング ブランチは、もつれが解けているが弱い時系列エンコーディングを抽出します。LLM エンパワード エンコーディング ブランチは、同じ時系列をテキストでプロンプトとしてラップし、もつれているが堅牢なプロンプト エンコーディングを取得します。
結果として、このようなクロスモダリティのアライメントは、時系列とプロンプト モダリティの類似性に基づいて、プロンプト エンベディングから、もつれが解けた堅牢な時系列エンベディングの両方、つまり「2 つの世界の最良のもの」を取得します。
もう 1 つの重要な設計として、長さのテキスト プロンプトによる時系列からの計算コストを削減するために、最も重要な時間情報が最後のトークンにカプセル化されるように促す効果的なプロンプトを設計します。つまり、最後のトークンのみが下流の予測に渡されます。
推論速度を加速するために、最後のトークン埋め込みをさらに保存します。
8 つの実際のデータセットに対する広範な実験により、TimeCMA が最先端のものよりも優れたパフォーマンスを発揮することが実証されました。
要約(オリジナル)
Multivariate time series forecasting (MTSF) aims to learn temporal dynamics among variables to forecast future time series. Existing statistical and deep learning-based methods suffer from limited learnable parameters and small-scale training data. Recently, large language models (LLMs) combining time series with textual prompts have achieved promising performance in MTSF. However, we discovered that current LLM-based solutions fall short in learning disentangled embeddings. We introduce TimeCMA, an intuitive yet effective framework for MTSF via cross-modality alignment. Specifically, we present a dual-modality encoding with two branches: the time series encoding branch extracts disentangled yet weak time series embeddings, and the LLM-empowered encoding branch wraps the same time series with text as prompts to obtain entangled yet robust prompt embeddings. As a result, such a cross-modality alignment retrieves both disentangled and robust time series embeddings, “the best of two worlds”, from the prompt embeddings based on time series and prompt modality similarities. As another key design, to reduce the computational costs from time series with their length textual prompts, we design an effective prompt to encourage the most essential temporal information to be encapsulated in the last token: only the last token is passed to downstream prediction. We further store the last token embeddings to accelerate inference speed. Extensive experiments on eight real datasets demonstrate that TimeCMA outperforms state-of-the-arts.
arxiv情報
著者 | Chenxi Liu,Qianxiong Xu,Hao Miao,Sun Yang,Lingzheng Zhang,Cheng Long,Ziyue Li,Rui Zhao |
発行日 | 2024-12-18 15:01:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google