Applying Reinforcement Learning to Option Pricing and Hedging

要約

この論文は、Halperin (2017) によって導入された Q-Learning Black Scholes アプローチの詳細な説明に主に焦点を当てながら、価格設定および金融商品のヘッジにおける強化学習の最近の進歩の概要を提供します。
この強化学習アプローチは、従来の Black and Scholes (1973) モデルと新しい人工知能アルゴリズムを橋渡しし、完全にモデルフリーでデータ駆動型の方法でオプションの価格設定とヘッジを可能にします。
この論文では、ヨーロッパのプット オプションのさまざまな状態変数とシナリオの下でのアルゴリズムのパフォーマンスについても調査します。
結果は、このモデルがさまざまなレベルのボラティリティとヘッジ頻度の下で正確な推定手段であることを明らかにしています。
さらに、この方法は、オプションの金額のさまざまなレベルにわたって堅牢なパフォーマンスを示します。
最後に、アルゴリズムには比例取引コストが組み込まれており、状態変数のさまざまな統計的特性によって影響を受ける損益へのさまざまな影響を示します。

要約(オリジナル)

This thesis provides an overview of the recent advances in reinforcement learning in pricing and hedging financial instruments, with a primary focus on a detailed explanation of the Q-Learning Black Scholes approach, introduced by Halperin (2017). This reinforcement learning approach bridges the traditional Black and Scholes (1973) model with novel artificial intelligence algorithms, enabling option pricing and hedging in a completely model-free and data-driven way. This paper also explores the algorithm’s performance under different state variables and scenarios for a European put option. The results reveal that the model is an accurate estimator under different levels of volatility and hedging frequency. Moreover, this method exhibits robust performance across various levels of option’s moneyness. Lastly, the algorithm incorporates proportional transaction costs, indicating diverse impacts on profit and loss, affected by different statistical properties of the state variables.

arxiv情報

著者 Zoran Stoiljkovic
発行日 2023-10-06 15:59:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, q-fin.CP パーマリンク