Accelerating Full Waveform Inversion By Transfer Learning

要約

全波形インバージョン(FWI)は、波動伝播によって得られた疎な測定データに基づいて材料場を再構成するための強力なツールです。特定の問題に対しては、ニューラルネットワーク(NN)を用いて物質場を離散化することで、対応する最適化問題のロバスト性と再構成品質を向上させることができます。この方法をNNベースのFWIと呼ぶ。初期推測から始めて、NNの重みを反復的に更新し、疎な測定データセットに模擬波信号を適合させる。勾配に基づく最適化において、初期推測の適切な選択、すなわち適切なNNの重みの初期化は、高速かつロバストな収束のために極めて重要である。 本論文では、NNベースのFWIをさらに改善するために、新しい転移学習アプローチを紹介する。このアプローチは教師ありの事前学習を活用し、より適切なNN重みの初期化を行うことで、その後の最適化問題の収束を早める。さらに、反転により物理的により意味のある局所極小値が得られる。ネットワークは、従来のFWIの最初の反復から得られる勾配情報を用いて、未知の材料場を予測するように事前学習される。二次元領域での計算実験では、学習データセットは、形状や向きの異なる楕円空隙を任意に配置した参照シミュレーションから構成される。提案する転移学習NNベースFWIの性能を、従来のFWI、事前学習なしのNNベースFWI、事前学習したNNから予測される初期推測を用いた従来のFWIの3つの手法と比較する。その結果、伝達学習NNベースFWIは、収束速度と再構成品質において他の手法を凌駕することが示された。

要約(オリジナル)

Full waveform inversion (FWI) is a powerful tool for reconstructing material fields based on sparsely measured data obtained by wave propagation. For specific problems, discretizing the material field with a neural network (NN) improves the robustness and reconstruction quality of the corresponding optimization problem. We call this method NN-based FWI. Starting from an initial guess, the weights of the NN are iteratively updated to fit the simulated wave signals to the sparsely measured data set. For gradient-based optimization, a suitable choice of the initial guess, i.e., a suitable NN weight initialization, is crucial for fast and robust convergence. In this paper, we introduce a novel transfer learning approach to further improve NN-based FWI. This approach leverages supervised pretraining to provide a better NN weight initialization, leading to faster convergence of the subsequent optimization problem. Moreover, the inversions yield physically more meaningful local minima. The network is pretrained to predict the unknown material field using the gradient information from the first iteration of conventional FWI. In our computational experiments on two-dimensional domains, the training data set consists of reference simulations with arbitrarily positioned elliptical voids of different shapes and orientations. We compare the performance of the proposed transfer learning NN-based FWI with three other methods: conventional FWI, NN-based FWI without pretraining and conventional FWI with an initial guess predicted from the pretrained NN. Our results show that transfer learning NN-based FWI outperforms the other methods in terms of convergence speed and reconstruction quality.

arxiv情報

著者 Divya Shyam Singh,Leon Herrmann,Qing Sun,Tim Bürchner,Felix Dietrich,Stefan Kollmannsberger
発行日 2024-08-01 16:39:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク