Time-Series Foundation AI Model for Value-at-Risk Forecasting

要約

この研究は、リターンの左尾の分位数を本質的に予測するリスクの付加価値(VAR)のタイムシリーズファンデーションAIモデルのパフォーマンスを分析した最初の研究です。
多様なデータセットで事前に訓練されたファンデーションモデルは、最小限のデータを使用してゼロショット設定で適用することができます。
GoogleのTIMESFMモデルを、SP 100インデックスとその構成要素からの19年間の毎日のリターンを使用して、GARCHおよび一般化された自己回帰スコア(GAS)を含む従来のパラメトリックおよびノンパラメトリックモデルと比較します。
8.5年以上のサンプル外データを使用したバックテストは、微調整された基礎モデルが、実際に予想される比率で従来の方法よりも一貫して優れていることを示しています。
分位スコア損失関数の場合、それは最高の計量経済学モデルであるガスと同等に機能します。
全体として、ファンデーションモデルは、0.01、0.025、0.05、および0.1の分位予測にわたる最高のパフォーマーとしてランク付けされています。
微調整は精度を大幅に向上させ、ゼロショットの使用がVARに最適ではないことを示しています。

要約(オリジナル)

This study is the first to analyze the performance of a time-series foundation AI model for Value-at-Risk (VaR), which essentially forecasts the left-tail quantiles of returns. Foundation models, pre-trained on diverse datasets, can be applied in a zero-shot setting with minimal data or further improved through finetuning. We compare Google’s TimesFM model to conventional parametric and non-parametric models, including GARCH and Generalized Autoregressive Score (GAS), using 19 years of daily returns from the SP 100 index and its constituents. Backtesting with over 8.5 years of out-of-sample data shows that the fine-tuned foundation model consistently outperforms traditional methods in actual-over-expected ratios. For the quantile score loss function, it performs comparably to the best econometric model, GAS. Overall, the foundation model ranks as the best or among the top performers across the 0.01, 0.025, 0.05, and 0.1 quantile forecasting. Fine-tuning significantly improves accuracy, showing that zero-shot use is not optimal for VaR.

arxiv情報

著者 Anubha Goel,Puneet Pasricha,Juho Kanniainen
発行日 2025-05-12 14:24:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-fin.RM パーマリンク