FaultSeg Swin-UNETR: Transformer-Based Self-Supervised Pretraining Model for Fault Recognition

要約

この論文では、自己教師あり事前学習を通じて地震断層認識を強化するアプローチを紹介します。
地震断層の解釈は地球物理学や地質学の分野で非常に重要です。
しかし、従来の地震断層認識手法では、データの質や量への依存、解釈者の主観の影響を受けやすいなど、さまざまな課題がありました。
現在、小規模な合成データセットに基づいて提案された自動断層認識方法は、実際の地震データに適用するとパフォーマンスが低下します。
これらの課題に対処するために、比較的簡単に入手できる大量のラベルなし地震データを事前トレーニングに利用する自己教師あり学習の概念を導入しました。
具体的には、Swin Transformer モデルをコア ネットワークとして採用し、SimMIM 事前トレーニング タスクを採用して地震データの不連続性に関連する固有の特徴を捕捉しました。
微調整段階では、エッジ検出技術にヒントを得て、Swin-UNETR モデルの構造も改良し、より効果的な障害検出のためのマルチスケール デコードと融合を可能にしました。
実験結果は、OIS および ODS メトリクスによって測定されるように、私たちの提案した方法が Thebe データセット上で最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

This paper introduces an approach to enhance seismic fault recognition through self-supervised pretraining. Seismic fault interpretation holds great significance in the fields of geophysics and geology. However, conventional methods for seismic fault recognition encounter various issues, including dependence on data quality and quantity, as well as susceptibility to interpreter subjectivity. Currently, automated fault recognition methods proposed based on small synthetic datasets experience performance degradation when applied to actual seismic data. To address these challenges, we have introduced the concept of self-supervised learning, utilizing a substantial amount of relatively easily obtainable unlabeled seismic data for pretraining. Specifically, we have employed the Swin Transformer model as the core network and employed the SimMIM pretraining task to capture unique features related to discontinuities in seismic data. During the fine-tuning phase, inspired by edge detection techniques, we have also refined the structure of the Swin-UNETR model, enabling multiscale decoding and fusion for more effective fault detection. Experimental results demonstrate that our proposed method attains state-of-the-art performance on the Thebe dataset, as measured by the OIS and ODS metrics.

arxiv情報

著者 Zeren Zhang,Ran Chen,Jinwen Ma
発行日 2023-10-27 08:38:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク