A Primer on Variational Inference for Physics-Informed Deep Generative Modelling

要約

変分推論 (VI) は、近似ベイズ推論のための計算効率が高く、スケーラブルな方法論です。
不確実性の定量化の精度と実用的な扱いやすさのバランスが取れています。
物理関連の問題に不可欠なベイズ正則化と柔軟性が組み込まれているため、生成モデリングと反転タスクに優れています。
VI の中心的な学習目標を導き出すには、多くの場合、物理問題で発生するなど、問題の性質によって対象変数間の条件依存性が決まる新しい学習タスクに合わせて調整する必要があります。
このペーパーでは、順問題と逆問題に関する VI のアクセスしやすく徹底的な技術的紹介を提供し、VI フレームワークの標準導出とそれを深層学習を通じて最適に実現する方法を読者にガイドします。
次に、VI によって可能になる創造的な柔軟性を例証する最近の文献をレビューし、統合します。
この文書は、不確実性の定量化に重点を置いて物理ベースの問題を解決しようとしている一般の科学読者を対象に設計されています。

要約(オリジナル)

Variational inference (VI) is a computationally efficient and scalable methodology for approximate Bayesian inference. It strikes a balance between accuracy of uncertainty quantification and practical tractability. It excels at generative modelling and inversion tasks due to its built-in Bayesian regularisation and flexibility, essential qualities for physics related problems. Deriving the central learning objective for VI must often be tailored to new learning tasks where the nature of the problems dictates the conditional dependence between variables of interest, such as arising in physics problems. In this paper, we provide an accessible and thorough technical introduction to VI for forward and inverse problems, guiding the reader through standard derivations of the VI framework and how it can best be realized through deep learning. We then review and unify recent literature exemplifying the creative flexibility allowed by VI. This paper is designed for a general scientific audience looking to solve physics-based problems with an emphasis on uncertainty quantification.

arxiv情報

著者 Alex Glyn-Davies,Arnaud Vadeboncoeur,O. Deniz Akyildiz,Ieva Kazlauskaite,Mark Girolami
発行日 2024-09-10 14:43:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph, stat.ML パーマリンク