Time-Series Foundation Model for Value-at-Risk

要約

この研究は、VaR 推定のための時系列基礎モデルの適用を検討する最初の研究です。
膨大で多様なデータセットで事前トレーニングされた基礎モデルは、比較的最小限のデータを使用してゼロショット設定で使用することも、微調整によってさらに改善することもできます。
S\&P 100 指数とその構成銘柄の 19 年以上の日次リターンを使用して、TimesFM と呼ばれる Google のモデルのパフォーマンスを、GARCH、一般化自己回帰スコア (GAS)、経験的分位推定などの従来のパラメトリック モデルおよびノンパラメトリック モデルと比較します。
年。
バックテストの結果は、実際の期待以上の比率の点で、微調整された TimesFM モデルが従来の方法よりも一貫して優れていることを示しています。
分位点スコア損失関数に関しては、最高の計量経済学的アプローチである GAS モデルと同等のパフォーマンスを達成します。
全体として、基礎モデルは、0.01、0.025、0.05、および 0.1 VaR レベルにわたる VaR の予測において最高のパフォーマンスを発揮するか、トップのパフォーマンスを示します。
また、微調整すると結果が大幅に改善されるため、モデルをゼロショット設定で使用すべきではないこともわかりました。
全体として、基礎モデルは従来の計量経済手法に完全に代替するアプローチを提供できますが、取り組むべき課題もあります。

要約(オリジナル)

This study is the first to explore the application of a time-series foundation model for VaR estimation. Foundation models, pre-trained on vast and varied datasets, can be used in a zero-shot setting with relatively minimal data or further improved through finetuning. We compare the performance of Google’s model, called TimesFM, against conventional parametric and non-parametric models, including GARCH, Generalized Autoregressive Score (GAS), and empirical quantile estimates, using daily returns from the S\&P 100 index and its constituents over 19 years. Our backtesting results indicate that, in terms of the actual-over-expected ratio, the fine-tuned TimesFM model consistently outperforms traditional methods. Regarding the quantile score loss function, it achieves performance comparable to the best econometric approach, the GAS model. Overall, the foundation model is either the best or among the top performers in forecasting VaR across the 0.01, 0.025, 0.05, and 0.1 VaR levels. We also found that fine-tuning significantly improves the results, and the model should not be used in zero-shot settings. Overall, foundation models can provide completely alternative approaches to traditional econometric methods, yet there are challenges to be tackled.

arxiv情報

著者 Anubha Goel,Puneet Pasricha,Juho Kanniainen
発行日 2024-10-15 16:53:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-fin.RM パーマリンク