ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning

要約

時系列を理解することは、現実世界のシナリオに適用するために非常に重要です。
最近、大規模言語モデル (LLM) が時系列タスクに適用されることが増えており、その強力な言語機能を活用してさまざまなアプリケーションを強化しています。
しかし、時系列の理解と推論のためのマルチモーダル LLM (MLLM) に関する研究は、主に時系列をテキスト情報と整合させる高品質のデータセットが不足しているため、依然として限られています。
このペーパーでは、時系列分析用に設計された新しい MLLM である ChatTS を紹介します。
ChatTS は、視覚 MLLM が画像を処理する方法と同様に、時系列をモダリティとして扱い、時系列の理解と推論の両方を実行できるようにします。
トレーニング データの不足に対処するために、詳細な属性の説明を含む合成時系列を生成するための属性ベースの方法を提案します。
さらに、多様な時系列 Q&A を生成し、モデルの推論機能を強化する新しいアプローチである Time Series Evol-Instruct を紹介します。
私たちの知る限り、ChatTS は理解と推論のための入力として多変量時系列を取り、合成データセットのみで微調整される初の TS-MLLM です。
6 つの位置合わせタスクと 4 つの推論タスクを含む、実世界のデータを含むベンチマーク データセットを使用してそのパフォーマンスを評価します。
私たちの結果は、ChatTS が既存のビジョンベースの MLLM (GPT-4o など) やテキスト/エージェントベースの LLM を大幅に上回り、位置合わせタスクで 46.0% の改善、推論タスクで 25.8% の改善を達成したことを示しています。

要約(オリジナル)

Understanding time series is crucial for its application in real-world scenarios. Recently, large language models (LLMs) have been increasingly applied to time series tasks, leveraging their strong language capabilities to enhance various applications. However, research on multimodal LLMs (MLLMs) for time series understanding and reasoning remains limited, primarily due to the scarcity of high-quality datasets that align time series with textual information. This paper introduces ChatTS, a novel MLLM designed for time series analysis. ChatTS treats time series as a modality, similar to how vision MLLMs process images, enabling it to perform both understanding and reasoning with time series. To address the scarcity of training data, we propose an attribute-based method for generating synthetic time series with detailed attribute descriptions. We further introduce Time Series Evol-Instruct, a novel approach that generates diverse time series Q&As, enhancing the model’s reasoning capabilities. To the best of our knowledge, ChatTS is the first TS-MLLM that takes multivariate time series as input for understanding and reasoning, which is fine-tuned exclusively on synthetic datasets. We evaluate its performance using benchmark datasets with real-world data, including six alignment tasks and four reasoning tasks. Our results show that ChatTS significantly outperforms existing vision-based MLLMs (e.g., GPT-4o) and text/agent-based LLMs, achieving a 46.0% improvement in alignment tasks and a 25.8% improvement in reasoning tasks.

arxiv情報

著者 Zhe Xie,Zeyan Li,Xiao He,Longlong Xu,Xidao Wen,Tieying Zhang,Jianjun Chen,Rui Shi,Dan Pei
発行日 2025-01-01 07:23:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク