Calibration of Derivative Pricing Models: a Multi-Agent Reinforcement Learning Perspective

要約

量的金融における最も基本的な問題の 1 つは、特定のオプションのセットの市場価格に適合する連続時間拡散モデルの存在です。
従来は、直観、理論的分析、経験的分析を組み合わせて、正確または近似の適合を実現するモデルを見つけてきました。
私たちの貢献は、確率過程の空間を検索する最新の深層マルチエージェント強化学習の既存の開発を活用することにより、この問題の適切なゲーム理論的定式化がどのようにこの問題の解決に役立つかを示すことです。
私たちの実験は、局所的なボラティリティと、バミューダのオプションの価格を最小化するためにボラティリティのプロセスで必要な経路依存性を学習できることを示しています。
私たちのアルゴリズムは、 $\sigma_{loc}(t,S_t)^2 を保証するように設計されているのではなく、粒子法 \textit{\`{a} la} Guyon \textit{et} Henry-Labordere として見ることができます。
= \mathbb{E}[\sigma_t^2|S_t]$ は、より一般的なキャリブレーション ターゲットに向けて協力する RL 駆動エージェントを学習しています。

要約(オリジナル)

One of the most fundamental questions in quantitative finance is the existence of continuous-time diffusion models that fit market prices of a given set of options. Traditionally, one employs a mix of intuition, theoretical and empirical analysis to find models that achieve exact or approximate fits. Our contribution is to show how a suitable game theoretical formulation of this problem can help solve this question by leveraging existing developments in modern deep multi-agent reinforcement learning to search in the space of stochastic processes. Our experiments show that we are able to learn local volatility, as well as path-dependence required in the volatility process to minimize the price of a Bermudan option. Our algorithm can be seen as a particle method \textit{\`{a} la} Guyon \textit{et} Henry-Labordere where particles, instead of being designed to ensure $\sigma_{loc}(t,S_t)^2 = \mathbb{E}[\sigma_t^2|S_t]$, are learning RL-driven agents cooperating towards more general calibration targets.

arxiv情報

著者 Nelson Vadori
発行日 2023-10-06 12:48:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, q-fin.CP, q-fin.MF パーマリンク