Learning the Infinitesimal Generator of Stochastic Diffusion Processes

要約

私たちは、自然および物理システムの数値シミュレーションを理解するために不可欠な、確率的拡散プロセスの微小生成器のデータ駆動型学習に取り組みます。
ジェネレーターの無制限の性質は重大な課題を引き起こし、ヒルベルト・シュミット演算子のための従来の分析手法を無効にします。
これを克服するために、これらの確率過程のエネルギー汎関数に基づく新しいフレームワークを導入します。
私たちのアプローチは、完全な知識設定と部分的な知識設定の両方で、エネルギーベースのリスク指標を通じて物理的な事前情報を統合します。
部分知識設定でカーネル ヒルベルト空間 (RKHS) を再現する際の縮小ランク推定器の統計的パフォーマンスを評価します。
特に、私たちのアプローチは状態空間次元に依存しない学習限界を提供し、非スプリアスなスペクトル推定を保証します。
さらに、確率的拡散の固有エネルギー誘発メトリックと発電機推定に使用される RKHS メトリックの間の歪みがスペクトル学習限界にどのように影響するかを解明します。

要約(オリジナル)

We address data-driven learning of the infinitesimal generator of stochastic diffusion processes, essential for understanding numerical simulations of natural and physical systems. The unbounded nature of the generator poses significant challenges, rendering conventional analysis techniques for Hilbert-Schmidt operators ineffective. To overcome this, we introduce a novel framework based on the energy functional for these stochastic processes. Our approach integrates physical priors through an energy-based risk metric in both full and partial knowledge settings. We evaluate the statistical performance of a reduced-rank estimator in reproducing kernel Hilbert spaces (RKHS) in the partial knowledge setting. Notably, our approach provides learning bounds independent of the state space dimension and ensures non-spurious spectral estimation. Additionally, we elucidate how the distortion between the intrinsic energy-induced metric of the stochastic diffusion and the RKHS metric used for generator estimation impacts the spectral learning bounds.

arxiv情報

著者 Vladimir R. Kostic,Karim Lounici,Helene Halconruy,Timothee Devergne,Massimiliano Pontil
発行日 2024-05-21 17:13:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62M15, cs.LG, math.PR, stat.ML パーマリンク