Towards Cross-Modality Modeling for Time Series Analytics: A Survey in the LLM Era

要約

エッジデバイスの増殖により、さまざまなドメインにわたって前例のない時系列データが生成され、さまざまな適切にカスタマイズされた方法が動機付けられています。
最近、テキストデータと時系列の共有された連続的な性質を活用することにより、大規模な言語モデル(LLM)が時系列分析の新しいパラダイムとして浮上しています。
ただし、LLMはテキストコーパスで事前に訓練されており、時系列に本質的に最適化されていないため、時系列とLLMSの間に基本的なクロスモダリティギャップが存在します。
最近の多くの提案は、この問題に対処するように設計されています。
この調査では、時系列分析のためのLLMSベースのクロスモダリティモデリングの最新の概要を説明します。
最初に、時系列モデリングに採用されているテキストデータのタイプに基づいて、既存のアプローチを4つのグループに分類する分類法を紹介します。
次に、主要なクロスモダリティ戦略、たとえばアラインメントと融合を要約し、さまざまなダウンストリームタスクにまたがるアプリケーションについて議論します。
さらに、さまざまなアプリケーションドメインのマルチモーダルデータセットで実験を行い、テキストデータの効果的な組み合わせと時系列分析を強化するためのクロスモダリティ戦略を調査します。
最後に、将来の研究のためのいくつかの有望な方向を提案します。
この調査は、LLMベースの時系列モデリングに関心のあるさまざまな専門家、研究者、および実務家向けに設計されています。

要約(オリジナル)

The proliferation of edge devices has generated an unprecedented volume of time series data across different domains, motivating various well-customized methods. Recently, Large Language Models (LLMs) have emerged as a new paradigm for time series analytics by leveraging the shared sequential nature of textual data and time series. However, a fundamental cross-modality gap between time series and LLMs exists, as LLMs are pre-trained on textual corpora and are not inherently optimized for time series. Many recent proposals are designed to address this issue. In this survey, we provide an up-to-date overview of LLMs-based cross-modality modeling for time series analytics. We first introduce a taxonomy that classifies existing approaches into four groups based on the type of textual data employed for time series modeling. We then summarize key cross-modality strategies, e.g., alignment and fusion, and discuss their applications across a range of downstream tasks. Furthermore, we conduct experiments on multimodal datasets from different application domains to investigate effective combinations of textual data and cross-modality strategies for enhancing time series analytics. Finally, we suggest several promising directions for future research. This survey is designed for a range of professionals, researchers, and practitioners interested in LLM-based time series modeling.

arxiv情報

著者 Chenxi Liu,Shaowen Zhou,Qianxiong Xu,Hao Miao,Cheng Long,Ziyue Li,Rui Zhao
発行日 2025-05-05 11:35:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク