Applying Deep Learning to Calibrate Stochastic Volatility Models

要約

ボラティリティが確率的プロセスである確率的ボラティリティ モデルは、インプライド ボラティリティ サーフェスの本質的な様式化された事実のほとんどを捕捉し、ボラティリティ スマイルまたはスキューのより現実的なダイナミクスを与えることができます。
ただし、キャリブレーションに時間がかかりすぎるという重大な問題があります。
最近では、キャリブレーション問題に対する迅速かつ正確なソリューションを構築するために、深層学習 (DL) 技術に基づく代替キャリブレーション方法が使用されています。
Huge と Savine は、差分深層学習 (DDL) アプローチを開発しました。このアプローチでは、機械学習モデルが、特徴とラベルだけでなく、特徴に対するラベルの差分のサンプルでもトレーニングされます。
現在の研究は、DDL 技術をバニラ欧州オプション (つまり、調整商品) の価格設定に適用すること、より具体的には、原資産がヘストン モデルに従う場合を設定し、トレーニングされたネットワーク上でモデルを調整することを目的としています。
DDL により、迅速なトレーニングと正確な価格設定が可能になります。
トレーニングされたニューラル ネットワークにより、ヘストン キャリブレーションの計算時間が大幅に短縮されます。
この作業では、さまざまな正則化手法も導入し、特に DDL の場合にそれらを適用します。
過学習の低減と汎化誤差の改善におけるパフォーマンスを比較します。
DDL のパフォーマンスは、フィードフォワード ニューラル ネットワークの場合の古典的な DL (微分なし) のパフォーマンスとも比較されます。
DDL が DL よりも優れていることを示します。

要約(オリジナル)

Stochastic volatility models, where the volatility is a stochastic process, can capture most of the essential stylized facts of implied volatility surfaces and give more realistic dynamics of the volatility smile or skew. However, they come with the significant issue that they take too long to calibrate. Alternative calibration methods based on Deep Learning (DL) techniques have been recently used to build fast and accurate solutions to the calibration problem. Huge and Savine developed a Differential Deep Learning (DDL) approach, where Machine Learning models are trained on samples of not only features and labels but also differentials of labels to features. The present work aims to apply the DDL technique to price vanilla European options (i.e. the calibration instruments), more specifically, puts when the underlying asset follows a Heston model and then calibrate the model on the trained network. DDL allows for fast training and accurate pricing. The trained neural network dramatically reduces Heston calibration’s computation time. In this work, we also introduce different regularisation techniques, and we apply them notably in the case of the DDL. We compare their performance in reducing overfitting and improving the generalisation error. The DDL performance is also compared to the classical DL (without differentiation) one in the case of Feed-Forward Neural Networks. We show that the DDL outperforms the DL.

arxiv情報

著者 Abir Sridi,Paul Bilokon
発行日 2023-09-14 16:38:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-fin.CP, q-fin.MF, q-fin.PR, q-fin.RM パーマリンク