A Primer on Variational Inference for Physics-Informed Deep Generative Modelling

要約

変分推論(VI)は、近似ベイジアン推論のための計算効率的でスケーラブルな方法論です。
不確実性の定量化の精度と実際の扱いやすさのバランスをとっています。
ベイジアンの正規化と柔軟性、物理学関連の問題の本質的な資質が組み込まれているため、生成モデリングと反転タスクに優れています。
このような問題については、基礎となる物理モデルが目的の変数間の依存性を決定し、それが中央VI学習目標に合わせた導出を必要とするものです。
さらに、多くの物理的推論アプリケーションでは、この構造は豊富な意味を持ち、関心のあるダイナミクスを正確にキャプチャするために不可欠です。
このホワイトペーパーでは、VIへのアクセスしやすく徹底的な技術的な紹介を前向きおよび逆問題のために提供し、VIフレームワークの標準派生と、深い学習を通じてどのように実現できるかを読者に導きます。
次に、VIが許可された柔軟性を例示する最近の文献をレビューして統合します。
このペーパーは、不確実性の定量化に重点を置いて、物理学に基づく問題を解決しようとしている一般的な科学視聴者向けに設計されています

要約(オリジナル)

Variational inference (VI) is a computationally efficient and scalable methodology for approximate Bayesian inference. It strikes a balance between accuracy of uncertainty quantification and practical tractability. It excels at generative modelling and inversion tasks due to its built-in Bayesian regularisation and flexibility, essential qualities for physics related problems. For such problems, the underlying physical model determines the dependence between variables of interest, which in turn will require a tailored derivation for the central VI learning objective. Furthermore, in many physical inference applications this structure has rich meaning and is essential for accurately capturing the dynamics of interest. In this paper, we provide an accessible and thorough technical introduction to VI for forward and inverse problems, guiding the reader through standard derivations of the VI framework and how it can best be realized through deep learning. We then review and unify recent literature exemplifying the flexibility allowed by VI. This paper is designed for a general scientific audience looking to solve physics-based problems with an emphasis on uncertainty quantification

arxiv情報

著者 Alex Glyn-Davies,Arnaud Vadeboncoeur,O. Deniz Akyildiz,Ieva Kazlauskaite,Mark Girolami
発行日 2025-04-14 15:44:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph, stat.ML パーマリンク