Time Series Forecasting with LLMs: Understanding and Enhancing Model Capabilities

要約

大規模言語モデル (LLM) は、近年の急速な発展により多くの分野に適用されています。
古典的な機械学習タスクとして、時系列予測は最近 LLM によって強化されています。
ただし、この分野における LLM の好みには研究上のギャップがあります。
この論文では、LLM を従来のモデルと比較することにより、時系列予測における LLM の多くの特性が見つかりました。
たとえば、私たちの調査では、LLM は明確なパターンと傾向を持つ時系列の予測には優れていますが、周期性のないデータセットでは課題に直面していることが示されています。
LLM にデータセットの期間を伝えるように要求するプロンプトを設計することで、発見結果を説明します。
さらに、入力戦略が調査され、外部知識の組み込みと自然言語言い換えの採用が、時系列に対する LLM の予測パフォーマンスにプラスの影響を与えることがわかりました。
全体として、この研究は、さまざまな条件下での時系列予測における LLM の利点と限界についての洞察に貢献します。

要約(オリジナル)

Large language models (LLMs) have been applied in many fields with rapid development in recent years. As a classic machine learning task, time series forecasting has recently received a boost from LLMs. However, there is a research gap in the LLMs’ preferences in this field. In this paper, by comparing LLMs with traditional models, many properties of LLMs in time series prediction are found. For example, our study shows that LLMs excel in predicting time series with clear patterns and trends but face challenges with datasets lacking periodicity. We explain our findings through designing prompts to require LLMs to tell the period of the datasets. In addition, the input strategy is investigated, and it is found that incorporating external knowledge and adopting natural language paraphrases positively affects the predictive performance of LLMs for time series. Overall, this study contributes to insight into the advantages and limitations of LLMs in time series forecasting under different conditions.

arxiv情報

著者 Mingyu Jin,Hua Tang,Chong Zhang,Qinkai Yu,Chengzhi Liu,Suiyuan Zhu,Yongfeng Zhang,Mengnan Du
発行日 2024-02-19 02:30:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク