要約
地下イメージングには、測定値から地球物理特性を予測するために完全波形反転 (FWI) を解くことが含まれます。
この問題は、画像間の変換として再構成できます。通常のアプローチでは、地球物理特性と測定という 2 つの領域からのペアのデータを使用してエンコーダー/デコーダー ネットワークをトレーニングします。
最近の独創的な研究 (InvLINT) は、2 つのドメインの潜在空間間には線形マッピングのみが存在し、デコーダーにはトレーニング用にペアのデータが必要であることを示しています。
この論文は、線形マッピングのみがデータのペアを必要とし、エンコーダとデコーダの両方が自己教師あり学習を通じてそれぞれのドメインから学習できることを実証することで、この方向性を拡張します。
これにより、2 つの別個のドメインの自己学習された特徴が自動的に線形相関するという興味深い現象 (Auto-Linear と呼ばれる) が明らかになります。
既存の手法と比較して、当社の Auto-Linear には 4 つの利点があります: (a) フォワード モデリングとインバース モデリングの両方を同時に解決できる、(b) さまざまな地下イメージング タスクに適用でき、以前の手法よりも著しく優れた結果が得られる、(c) 特にパフォーマンスが向上
限られたペアのデータとノイズの多いデータが存在するシナリオ、および (d) トレーニングされたエンコーダーとデコーダーの強力な汎化能力。
要約(オリジナル)
Subsurface imaging involves solving full waveform inversion (FWI) to predict geophysical properties from measurements. This problem can be reframed as an image-to-image translation, with the usual approach being to train an encoder-decoder network using paired data from two domains: geophysical property and measurement. A recent seminal work (InvLINT) demonstrates there is only a linear mapping between the latent spaces of the two domains, and the decoder requires paired data for training. This paper extends this direction by demonstrating that only linear mapping necessitates paired data, while both the encoder and decoder can be learned from their respective domains through self-supervised learning. This unveils an intriguing phenomenon (named Auto-Linear) where the self-learned features of two separate domains are automatically linearly correlated. Compared with existing methods, our Auto-Linear has four advantages: (a) solving both forward and inverse modeling simultaneously, (b) applicable to different subsurface imaging tasks and achieving markedly better results than previous methods, (c)enhanced performance, especially in scenarios with limited paired data and in the presence of noisy data, and (d) strong generalization ability of the trained encoder and decoder.
arxiv情報
著者 | Yinan Feng,Yinpeng Chen,Peng Jin,Shihang Feng,Zicheng Liu,Youzuo Lin |
発行日 | 2024-05-21 17:59:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google