Dimension-reduced KRnet maps for high-dimensional inverse problems

要約

高次元の逆問題に対する次元削減 KRnet マップ アプローチ (DR-KRnet) を提示します。これは、潜在空間で事前測定を事後測定に進めるマップの明示的な構築に基づいています。
私たちのアプローチは、潜在変数の事後データ駆動型 VAE と密度近似という 2 つの主要なコンポーネントで構成されています。
実際には、利用可能な以前のデータと一致する事前分布を初期化することは簡単ではないかもしれません。
言い換えれば、複雑な事前情報は、多くの場合、単純な手作りの事前情報を超えています。
変分オートエンコーダー (VAE) を使用して、前のデータセットの基になる分布を概算します。これは、潜在変数とデコーダーによって実現されます。
VAE 事前に提供されたデコーダーを使用して、低次元の潜在空間で問題を再定式化します。
特に、潜在変数の事後分布を近似するために、KRnet によって与えられる可逆輸送マップを探します。
さらに、ラベル付けされたデータのない効率的な物理制約付きサロゲート モデルが構築され、尤度計算に含まれる順問題と随伴問題の両方を解く計算コストが削減されます。
DR-KRnet の有効性、精度、および効率性を実証するために、数値実験が実施されます。

要約(オリジナル)

We present a dimension-reduced KRnet map approach (DR-KRnet) for high-dimensional inverse problems, which is based on an explicit construction of a map that pushes forward the prior measure to the posterior measure in the latent space. Our approach consists of two main components: data-driven VAE prior and density approximation of the posterior of the latent variable. In reality, it may not be trivial to initialize a prior distribution that is consistent with available prior data; in other words, the complex prior information is often beyond simple hand-crafted priors. We employ variational autoencoder (VAE) to approximate the underlying distribution of the prior dataset, which is achieved through a latent variable and a decoder. Using the decoder provided by the VAE prior, we reformulate the problem in a low-dimensional latent space. In particular, we seek an invertible transport map given by KRnet to approximate the posterior distribution of the latent variable. Moreover, an efficient physics-constrained surrogate model without any labeled data is constructed to reduce the computational cost of solving both forward and adjoint problems involved in likelihood computation. Numerical experiments are implemented to demonstrate the validity, accuracy, and efficiency of DR-KRnet.

arxiv情報

著者 Yani Feng,Kejun Tang,Xiaoliang Wan,Qifeng Liao
発行日 2023-03-01 15:16:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク