From continuous-time formulations to discretization schemes: tensor trains and robust regression for BSDEs and parabolic PDEs

要約

偏微分方程式 (PDE) の数値近似は、古典的なグリッドベースの手法がいわゆる次元性の呪いに悩まされるため、高次元では手ごわい課題を引き起こします。
最近の試みは、関数近似にニューラル ネットワークを使用したモンテカルロ法と変分定式化の組み合わせに依存しています。
以前の研究 (Richter et al., 2021) を拡張して、テンソル列が放物線偏微分方程式に魅力的なフレームワークを提供すると主張します。後方確率微分方程式と回帰型手法による再定式化の組み合わせは、潜在的な低ランクを活用する可能性を秘めています。
構造を採用し、圧縮と効率的な計算の両方を可能にします。
連続時間の観点を強調して、計算効率と堅牢性の点で異なる反復スキームを開発します。
私たちは、私たちの方法が精度と計算効率の間で有利なトレードオフを達成できることを理論的にも数値的にも実証します。
これまでの手法は正確か高速のいずれかでしたが、多くの場合これらの両方の側面を組み合わせることができる新しい数値戦略を特定しました。

要約(オリジナル)

The numerical approximation of partial differential equations (PDEs) poses formidable challenges in high dimensions since classical grid-based methods suffer from the so-called curse of dimensionality. Recent attempts rely on a combination of Monte Carlo methods and variational formulations, using neural networks for function approximation. Extending previous work (Richter et al., 2021), we argue that tensor trains provide an appealing framework for parabolic PDEs: The combination of reformulations in terms of backward stochastic differential equations and regression-type methods holds the promise of leveraging latent low-rank structures, enabling both compression and efficient computation. Emphasizing a continuous-time viewpoint, we develop iterative schemes, which differ in terms of computational efficiency and robustness. We demonstrate both theoretically and numerically that our methods can achieve a favorable trade-off between accuracy and computational efficiency. While previous methods have been either accurate or fast, we have identified a novel numerical strategy that can often combine both of these aspects.

arxiv情報

著者 Lorenz Richter,Leon Sallandt,Nikolas Nüsken
発行日 2023-07-28 11:44:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, math.PR, stat.ML パーマリンク