要約
この研究では、高次元の非線形後方確率微分方程式 (BSDE) を解くための新しい後方微分深層学習ベースのアルゴリズムを提案します。このアルゴリズムでは、ディープ ニューラル ネットワーク (DNN) モデルが入力とラベルだけでなく、
対応するラベルの差分。
これは、差分深層学習が入力に関するラベルとその導関数の効率的な近似を提供できるという事実によって動機付けられています。
BSDE は、Malliavin 計算を使用して微分深層学習問題として再定式化されます。
BSDE に対する解決策の Malliavin 導関数は、それ自体で別の BSDE を満たし、結果として BSDE のシステムが形成されます。
このような定式化には、解、その勾配、およびプロセス $\left(Y, Z, \Gamma\right) のトリプルで表されるヘッセ行列の推定が必要です。$ この系内のすべての積分は、オイラーを使用して離散化されます。
・丸山メソッド。
その後、DNN を使用して、これらの未知のプロセスの 3 倍を近似します。
DNN パラメーターは、差分学習タイプの損失関数を最小化することによって、各タイム ステップで逆方向に最適化されます。損失関数は、離散化 BSDE システムのダイナミクスの加重和として定義され、最初の項はプロセス $Y$ のダイナミクスを提供し、
その他のプロセス $Z$。
提案されたアルゴリズムの収束を示すために誤差分析が実行されます。
高い効率を実証するために、最大 $50$ の寸法までのさまざまな数値実験が提供されています。
理論的にも数値的にも、私たちが提案するスキームは、特にプロセス $\Gamma$ の計算において、他の現代の深層学習ベースの方法論と比較して効率的であることが実証されています。
要約(オリジナル)
In this work, we propose a novel backward differential deep learning-based algorithm for solving high-dimensional nonlinear backward stochastic differential equations (BSDEs), where the deep neural network (DNN) models are trained not only on the inputs and labels but also the differentials of the corresponding labels. This is motivated by the fact that differential deep learning can provide an efficient approximation of the labels and their derivatives with respect to inputs. The BSDEs are reformulated as differential deep learning problems by using Malliavin calculus. The Malliavin derivatives of solution to a BSDE satisfy themselves another BSDE, resulting thus in a system of BSDEs. Such formulation requires the estimation of the solution, its gradient, and the Hessian matrix, represented by the triple of processes $\left(Y, Z, \Gamma\right).$ All the integrals within this system are discretized by using the Euler-Maruyama method. Subsequently, DNNs are employed to approximate the triple of these unknown processes. The DNN parameters are backwardly optimized at each time step by minimizing a differential learning type loss function, which is defined as a weighted sum of the dynamics of the discretized BSDE system, with the first term providing the dynamics of the process $Y$ and the other the process $Z$. An error analysis is carried out to show the convergence of the proposed algorithm. Various numerical experiments up to $50$ dimensions are provided to demonstrate the high efficiency. Both theoretically and numerically, it is demonstrated that our proposed scheme is more efficient compared to other contemporary deep learning-based methodologies, especially in the computation of the process $\Gamma$.
arxiv情報
著者 | Lorenc Kapllani,Long Teng |
発行日 | 2024-04-12 13:05:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google